FeedFetcher est un service que Google utilise RSS et l'atome de Google News et PubSubhububub. FeedFetcher conserve et met périodiquement à jour les rubans demandés par les utilisateurs de services ou d'applications. Seule la bande de podcasts est indexée dans le moteur de recherche Google. Cependant, si la bande ne répond pas aux normes de l'atome ou du RSS, elle peut toujours être indexée. Dans cette section, vous trouverez des réponses aux questions les plus fréquemment posées sur le fonctionnement de cet outil d'obtention des données utilisateur.
Lorsque les utilisateurs ajoutent un service ou une application à l'aide de données FeedFetcher, Google essaie d'obtenir le contenu de la bande pour l'affichage. Étant donné que les demandes de FeedFetcher se produisent lors de l'initiative des utilisateurs, et non des robots automatiques, FeedFetcher ne prend pas en compte les règles dans Robots.txt.
Si la bande de votre site est accessible au public, Google ne peut pas y limiter l'accès. Une façon consiste à configurer le serveur afin qu'il envoie des erreurs 404, 410 ou d'autres codes de condition pour l'agent utilisateur FeedFetcher.
Si votre bande est fournie via un blog ou un site, utilisez les paramètres appropriés sur la plate-forme ou contactez le fournisseur d'hébergement pour limiter l'accès à la bande.
FeedFetcher ne doit pas demander les bandes de votre site plus d'une fois par heure. Pour les mises à jour souvent mises à jour, les mises à jour peuvent se produire plus souvent. Cependant, en raison de retards sur le réseau, il peut sembler que FeedFetcher fait des demandes plus souvent.
FeedFetcher demande des rubans à la demande des applications ou des utilisateurs de services. Peut-être que l'utilisateur a demandé une bande sur une URL non existante.
FeedFetcher fait des bandes sur les actions de l'utilisateur. Peut-être que la demande est venue de l'utilisateur qui connaît votre serveur "secret" ou l'a présenté accidentellement dans la ligne d'adresses.
FeedFetcher reçoit des bandes uniquement après que les utilisateurs ont clairement lancé des services ou des applications qui demandent des données. Ce comportement fait de FeedFetcher un agent humain, pas un robot automatique, il ignore donc les notes dans robots.txt.
Vous pouvez empêcher les données des données FeedFetcher en configurant l'erreur du serveur 404 ou 410 pour l'utilisateur d'utilisateur de FeedFetcher.
FeedFetcher a été développé pour des travaux distribués sur plusieurs machines afin d'augmenter les performances. Il aide également à réduire l'utilisation de la bande de passage en raison de la localisation des machines près des sites demandés.
Les adresses IP utilisées par FeedFetcher peuvent être trouvées dans l'objet detcheur déclenché par l'utilisateur-Google.json.
FeedFetcher télécharge généralement une seule copie de chaque fichier à réception de la bande. Parfois, lorsque les voitures sont redémarrées, une situation peut survenir dans laquelle les pages sont répétées.
Contrairement aux Crauls Web conventionnels, FeedFetcher ne recherche pas de liens pour la numérisation. Il analyse uniquement les URL que les utilisateurs fournissent via des services ou des applications.
Si vous avez toujours des questions, vous pouvez trouver de l'aide sur le Forum de la recherche centrale ou contacter la société de référencement pour n'importe quel problème par e-mail: info@seo.computer ou WhatsApp: +79202044461.
ID 192