FeedFetcher es un servicio que Google usa RSS y Atom de Google News y PubSubhububub. FeedFetcher retiene y actualiza periódicamente las cintas que solicitan usuarios de servicios o aplicaciones. Solo la cinta de podcasts se indexa en el motor de búsqueda de Google. Sin embargo, si la cinta no cumple con los estándares de Atom o RSS, aún se puede indexar. En esta sección, encontrará respuestas a las preguntas más frecuentes sobre cómo funciona esta herramienta de obtención de datos de usuario.
Cuando los usuarios agregan un servicio o aplicación utilizando datos de FeedFetcher, Google intenta obtener el contenido de la cinta para la visualización. Dado que las solicitudes de FeedFetcher se producen en la iniciativa de los usuarios, no en robots automáticos, FeedFetcher no tiene en cuenta las reglas en robots.txt.
Si la cinta de su sitio está disponible públicamente, Google no puede limitar el acceso a ella. Una forma es configurar el servidor para que envíe errores 404, 410 u otros códigos de condición para el agente de usuario FeedFetcher.
Si su cinta se proporciona a través de un blog o sitio, use la configuración apropiada en la plataforma o comuníquese con el proveedor de alojamiento para limitar el acceso a la cinta.
FeedFetcher no debe solicitar cintas de su sitio más de una vez por hora. Para actualizaciones a menudo actualizadas, las actualizaciones pueden ocurrir con mayor frecuencia. Sin embargo, debido a los retrasos en la red, puede parecer que FeedFetcher realiza solicitudes con más frecuencia.
FeedFetcher solicita cintas a solicitud de aplicaciones o usuarios de servicios. Quizás el usuario solicitó una cinta en una URL no existente.
FeedFetcher hace cintas en las acciones del usuario. Quizás la solicitud vino del usuario que conoce su servidor "secreto", o lo introdujo accidentalmente en la línea de direcciones.
FeedFetcher recibe cintas solo después de que los usuarios inician claramente servicios o aplicaciones que solicitan datos. Este comportamiento hace que FeedFetcher sea un agente humano, no un robot automático, por lo que ignora las notas en robots.txt.
Puede evitar los datos de los datos de FeedFetcher configurando el error del servidor 404 o 410 para el usuario del usuario de FeedFetcher.
FeedFetcher se desarrolló para el trabajo distribuido en varias máquinas para aumentar el rendimiento. También ayuda a reducir el uso de la tira de pasaje debido a la localización de máquinas cerca de los sitios solicitados.
Las direcciones IP utilizadas por FeedFetcher se pueden encontrar en el objeto de Fetchers-Google.json.
FeedFetcher generalmente carga solo una copia de cada archivo al recibir la cinta. A veces, cuando se reinician los automóviles, puede surgir una situación en la que se repiten las páginas.
A diferencia de los crauls web convencionales, FeedFetcher no está buscando enlaces para escanear. Escanea solo las URL que los usuarios proporcionan a través de servicios o aplicaciones.
Si aún tiene preguntas, puede encontrar ayuda en el Foro Central de búsqueda o comunicarse con la compañía SEO para cualquier problema a través del correo electrónico: info@seo.computer o whatsapp: +79202044461.
ID 192