La influencia de los duplicados en la promoción de Google
En este artículo, veremos cómo el contenido duplicado puede afectar la clasificación de su sitio web en Google. Un seguidor pregunta: “¿Cómo afecta el contenido duplicado al SEO en Google? ¿Qué métodos existen para eliminar duplicados? Vamos a resolverlo.
Cómo trata Google los duplicados
A Google no le agrada duplicar contenido, especialmente cuando se trata de crear diferentes versiones regionales de sitios alojados en subdominios o subcarpetas. Si el contenido de las páginas sólo difiere en cambios menores, como por ejemplo la sustitución de topónimos, el motor de búsqueda lo percibe como contenido duplicado. En este caso, las páginas pueden estar indexadas, pero su clasificación será limitada o nula.
Sin embargo, si el contenido se tomó prestado de otros sitios pero agregó un valor nuevo, es posible que tenga una clasificación bastante buena en Google. Un ejemplo de esto son los agregadores, que, a pesar de utilizar información de otros recursos, al cabo de un tiempo empiezan a ganar tráfico. En tales casos, Google puede considerar que una página es única si ofrece valor a los usuarios. Pero si hablamos de contenido interno duplicado en un sitio, es poco probable que Google promocione todas esas páginas y prefiera una versión principal.
También existe una situación en la que la creación simultánea de páginas duplicadas y la pérdida de indicadores en la versión principal de la página van de la mano. Aunque estos casos no son tan comunes, todavía ocurren. Es importante tener en cuenta que esto puede no ser sólo una coincidencia, sino un fenómeno relacionado, y se debe tener cuidado al crear duplicados.
Por lo tanto, Google no apoya particularmente los duplicados, tanto dentro del sitio como en otros recursos, a menos que esas páginas ofrezcan valor adicional. Sin embargo, en algunos casos, incluso los duplicados completos pueden tener posibilidades de obtener una buena clasificación si aún proporcionan algo útil.
Cómo eliminar correctamente los duplicados
Si decide que es necesario eliminar una versión de sus páginas duplicadas, existen varias opciones para resolver este problema:
Disálov en el archivo robots.txtbloquear el acceso a estas páginas a los motores de búsqueda.rel="canónico" en la sección cada página. Esta etiqueta dirige a los motores de búsqueda a la versión principal de la página. Google generalmente respeta esta etiqueta y la utiliza para determinar qué página se considera la página principal. A diferencia de Google, Yandex no siempre tiene en cuenta esta etiqueta, lo que puede provocar la indexación de duplicados en su motor de búsqueda, pero esto no siempre causa problemas.robots sin índice o título Etiqueta S-Robots en el encabezado HTTP. Esto excluye por completo que las páginas duplicadas sean indexadas por los motores de búsqueda.En resumen, entre estos métodos, recomendaría utilizar una redirección 301 ya que es el método más eficaz. El segundo lugar en confiabilidad es el uso de la etiqueta. canonizado, luego la metaetiqueta sin índice o título Etiqueta S-Robots, y en último lugar - directivas en robots.txt.
Para información y consejos adicionales, siempre puedes contactar con el estudio SEO "SEO COMPUTER" para cualquier duda al correo electrónico info@seo.computer.
número de identificación 5154