Cómo crear y enviar un archivo robots.txt a Google para su sitio

Cómo crear y enviar un archivo robots.txt a Google para su sitio

Si utiliza el servicio de alojamiento para su sitio, por ejemplo, WIX o Blogger, es posible que no tenga que editar el archivo robots.txt directamente. En cambio, su proveedor puede proporcionar una página de configuración de búsqueda u otros mecanismos para indicar motores de búsqueda, qué páginas del sitio pueden indexarse y cuáles no.

Si desea ocultar o abrir una de las páginas de los motores de búsqueda, lea las instrucciones para cambiar la visibilidad de la página en su alojamiento, por ejemplo, con una consulta de búsqueda "Cómo ocultar una página de los motores de búsqueda en WIX". Esto lo ayudará a controlar qué archivos pueden estar disponibles para evitar los robots de búsqueda utilizando el archivo robots.txt.

Fundamentos de la creación y uso del archivo robots.txt para su sitio de Google

El archivo Robots.txt se encuentra en la raíz de su sitio. Por ejemplo, para www.example.com, el archivo robots.txt se ubicará en www.example.com/robots.txt. Este es un archivo de texto regular que sigue el estándar de excepción estándar de exclusión de robots.

El archivo robots.txt consta de una o más directivas, cada una de las cuales bloquea o permite el acceso para un robot particular a la ruta especificada en el sitio. De manera predeterminada, todos los archivos en el sitio están permitidos para bypass, a menos que se especifique lo contrario.

Un ejemplo del archivo base robots.txt para su sitio de Google

Aquí hay un ejemplo de un archivo simple de robots.txt con dos reglas:

User-agent: Googlebot
Disallow: /nogooglebot/
User-agent: *
Allow: /
Sitemap: https://www.example.com/sitemap.xml

¿Qué significa este archivo?

  • El robot de Googlebot no puede omitir la URL que comienza con https://example.com/nogooglebot/.
  • Todos los demás robots pueden evitar todo el sitio. Esta regla podría omitirse, ya que de manera predeterminada todos los robots pueden evitar el sitio.
  • El sitio utiliza una tarjeta de sitio que se encuentra en https://www.example.com/sitemap.xml.

Cómo crear y probar un archivo robots.txt para su sitio web de Google

Crear un archivo robots.txt y sus pruebas consta de varias etapas:

  • Cree un archivo llamado Robots.txt.
  • Agregue las reglas de búsqueda relevantes al archivo.
  • Descargue el archivo robots.txt a la raíz de su sitio.
  • Verifique la disponibilidad del archivo para los motores de búsqueda y su corrección.

Cómo escribir reglas para rabots.txt en su sitio web de Google

Las reglas en el archivo robots.txt están diseñadas para especificar robots qué partes de su sitio se pueden pasar por alto. Aquí hay algunas recomendaciones para escribir las reglas:

  • Cada regla comienza con una indicación de agente de usuario, que determina para qué robot de búsqueda se aplican las reglas.
  • Cada regla también puede contener no permitir (para prohibir el bypass) y permitir (resolver el bypass). Por ejemplo:
User-agent: Googlebot
Disallow: /private/
User-agent: *
Allow: /

Robots.txt Pruebas para su sitio de Google

Después de descargar el archivo robots.txt al sitio, asegúrese de probar que está disponible para los robots de búsqueda. Para hacer esto, abra la ventana de incógnito en su navegador y vaya a su robots.txt, por ejemplo, https://example.com/robots.txt. Si ve el contenido de su archivo, significa que está disponible para su procesamiento.

Para probar y eliminar problemas con las marcas, puede usar:

  • Robots.txt Informe en la consola de búsqueda de Google (si el archivo está disponible en su sitio).
  • Uso de la biblioteca de Google para probar archivos locales robots.txt.

Cómo enviar un archivo robots.txt a Google

Después de cargar y probar el archivo robots.txt, Google Robots lo encontrará automáticamente y comenzará a usarlo. No hay necesidad de enviar el archivo manualmente. Sin embargo, si ha actualizado el archivo y desea que Google lo actualice rápidamente en el caché, puede usar la función de actualización de robots.txt en la consola de búsqueda de Google.

Reglas útiles de robots.txt para su sitio de Google

Aquí hay algunos ejemplos útiles del archivo robots.txt:

  • Prohibir el bypass de todo el sitio:
  •  User-agent: *
     Disallow: /
     
  • Prohibir un desvío de un directorio en particular:
  •  User-agent: *
     Disallow: /private/
     
  • Para resolver el bypass solo a un robot en particular:
  •  User-agent: Googlebot
     Allow: /
     User-agent: *
     Disallow: /
     

Contactos para aclaraciones sobre robots.txt y SEO para su sitio en Google

Si tiene preguntas sobre cómo configurar el archivo robots.txt u otros problemas de SEO, puede comunicarse con nuestro SEO Companion info@seo.computer o a través de whatsapp por número +79202044461.

ID: 4

Envíe una solicitud y le brindaremos una consulta. en SEO promoción de su sitio web