Si no desea entrar en detalles, comuníquese con los especialistas y obtenga una prueba gratuita de nuestro sistema.
El archivo robots.txt se utiliza para controlar cómo los motores de búsqueda indexan su sitio. Le permite especificar qué páginas o directorios del sitio deben indexarse y cuáles no.
Estas son las reglas básicas para trabajar con este archivo:
Dentro del archivo robots.txt, el rastreador busca directivas que comiencen con el campo User-agent. Este campo indica el robot del motor de búsqueda específico al que se aplica la regla de indexación correspondiente.
Al describir direcciones en un sitio web, puede utilizar el símbolo universal "*", que denota cualquier secuencia de caracteres. Esto le permite especificar un prefijo o sufijo de la ruta a un directorio o página.
A continuación se muestran algunas directivas básicas que se pueden utilizar en un archivo robots.txt:
También vale la pena señalar que los requisitos del archivo robots.txt pueden variar ligeramente según el motor de búsqueda. Para conocer las últimas recomendaciones para sistemas populares como Yandex o Google, consulte sus fuentes oficiales.
Si tienes alguna duda, siempre puedes contactar con los especialistas de nuestro estudio SEO escribiendo a info@seo.computer.
IDENTIFICACIÓN 9119