FeedFetcher is een service die Google gebruikt RSS en Atom van Google News en PubSubhububub. FeedFetcher behoudt en werkt periodiek de linten bij die worden aangevraagd door gebruikers van services of applicaties. Alleen tape van podcasts worden geïndexeerd in de Google -zoekmachine. Als de tape echter niet voldoet aan de normen van Atom of RSS, kan deze nog steeds worden geïndexeerd. In dit gedeelte vindt u antwoorden op de meest gestelde vragen over hoe deze tool voor het verkrijgen van gebruikersgegevens werkt.
Wanneer gebruikers een service of applicatie toevoegen met behulp van FeedFetcher -gegevens, probeert Google de inhoud van de tape voor weergave te krijgen. Omdat de verzoeken van FeedFetcher plaatsvinden in het initiatief van gebruikers, niet automatische robots, houdt FeedFetcher geen rekening met de regels in Robots.txt.
Als de tape van uw site openbaar beschikbaar is, kan Google er geen toegang tot beperken. Een manier is om de server te configureren zodat deze fouten 404, 410 of andere conditiecodes verzendt voor de FeedFetcher-gebruikersagent.
Als uw tape wordt verstrekt via een blog of site, gebruikt u de juiste instellingen op het platform of neemt u contact op met de hostingprovider om de toegang tot de tape te beperken.
FeedFetcher mag geen banden aanvragen van uw site meer dan eenmaal per uur. Voor vaak bijgewerkte updates kunnen updates vaker voorkomen. Vanwege vertragingen op het netwerk kan het echter lijken dat FeedFetcher vaker verzoeken indient.
FeedFetcher vraagt om linten op verzoek van toepassingen of servicegebruikers. Misschien vroeg de gebruiker om een tape op een niet -bestaande URL.
FeedFetcher maakt banden op gebruikersacties. Misschien kwam het verzoek van de gebruiker die op de hoogte is van uw "geheime" server, of deze per ongeluk in de adresregel heeft geïntroduceerd.
FeedFetcher ontvangt alleen tapes nadat gebruikers duidelijk services of applicaties die gegevens aanvragen duidelijk hebben gestart. Dit gedrag maakt FeedFetcher een menselijk agent, geen automatische robot, dus negeert hij notities in robots.txt.
U kunt de gegevens van FeedFetcher-gegevens voorkomen door de server 404 of 410-fout te configureren voor de gebruiker-agent-gebruiker van FeedFetcher.
FeedFetcher is ontwikkeld voor gedistribueerd werk aan verschillende machines om de prestaties te vergroten. Het helpt ook om het gebruik van de doorgangsstrip te verminderen vanwege de lokalisatie van machines in de buurt van de gevraagde locaties.
IP-adressen die door FeedFetcher worden gebruikt, zijn te vinden in het object met de gebruiker-triggered-fetchers-google.json.
FeedFetcher uploadt meestal slechts één kopie van elk bestand na ontvangst van de tape. Soms, wanneer auto's opnieuw worden gestart, kan een situatie ontstaan waarin pagina's worden herhaald.
In tegenstelling tot conventionele webcrauls is FeedFetcher niet op zoek naar links voor scannen. Het scant alleen die URL's die gebruikers leveren via services of applicaties.
Als u nog vragen heeft, kunt u hulp vinden op het Central Forum Search Central of contact opnemen met het SEO -bedrijf voor elk probleem via e -mail: info@seo.computer of whatsapp: +79202044461.
ID 192