Delegar.net – Santa Fe – Argentina

Blog

El scraping y los peligros del contenido duplicado

Publicado el 17 abril, 2013 en Blog

En SEO, la competencia por alcanzar el primer lugar ante la búsqueda de ciertos términos es cada vez más ardua. A medida que nacen nuevos sitios web y los algoritmos de los buscadores se vuelven más rigurosos, se hace más difícil alcanzar un buen posicionamiento. Ante esta situación, muchos prefieren mantener la paciencia y aplicar las técnicas de SEO tradicionales, mientras que otros buscan un posicionamiento rápido a costa de los métodos ilegítimos del Black Hat SEO. Algunas técnicas, sin embargo, se sitúan en la línea que divide estos dos enfoques. Una de ellas es el scraping.

El scraping consiste en reproducir en un sitio web los contenidos de otro, con el objeto de conseguir posicionamiento rápido. Esto no sólo incluye el clásico “copiar y pegar†de texto e imágenes, sino también “embeber†videos de YouTube, documentos de Scribd, tweets y otros objetos que tengan la opción de ser incrustados (embed). En muchos casos, el proceso es automático: existen programas que buscan sitios web con temáticas similares a la del nuestro y copian y republican sus contenidos instantáneamente. Muchas veces “absorben†su feed RSS para obtener actualizaciones en tiempo real. En ocasiones pueden modificar automáticamente el texto para disimular la copia o adaptarlo a nuestras propias palabras claves.

Black Hat SEO

Un sitio web puramente generado por scraping es conocido como scraper site, y prácticamente nunca resulta útil para el usuario. Suelen estar llenos de anuncios y su único objetivo suele ser atraer tráfico para obtener ganancias a través de clics en esos banners.

En la gran mayoría de los casos, la reproducción del contenido copiado no es previamente consentida por el autor, por lo que esta técnica se vuelve ilegítima. Pero ¿es efectiva? La actualización Google Panda apunta a penalizar a los sitios de spam y a privilegiar al autor original del contenido. Además, si el autor descubre la copia puede solicitar a Google la remoción del sitio plagiario de sus resultados. Sin embargo, los programas de scraping también evolucionan y en muchos casos logran engañar a los buscadores haciéndoles creer que el sitio scraper es en realidad quien publicó el contenido por primera vez.

De todas formas, la tendencia a penalizar el contenido duplicado es evidente, por lo que es de esperar que, con el tiempo, el scraping se convierta en una opción cada vez menos atractiva. Como siempre, el contenido original y de calidad es el mejor recurso para atraer y fidelizar a los usuarios.

Comentarios

Sin comentarios todavia!.

Disculpe, los comentarios están cerrados en este momento.