Google Search is een volledig geautomatiseerde zoekmachine die software gebruikt die bekend staat als Web Crauls die regelmatig internet verkennen om pagina's te vinden die aan de index kunnen worden toegevoegd. De meeste pagina's die in de zoekresultaten worden weergegeven, werden zelfs niet handmatig verzonden voor indexering, maar werden automatisch gevonden en toegevoegd bij het bestuderen van internet met webcrauls. Dit document legt in detail uit hoe de zoekopdracht in Google werkt in de context van uw site. Als u dit proces kent, kunt u scanfouten corrigeren, pagina's in de index krijgen en het sitedisplay optimaliseren bij het zoeken naar Google.
Op zoek naar iets minder technisch? Bekijk de site Hoe zoeken werktWie legt uit hoe de zoekopdracht werkt vanuit het gezichtspunt van de gebruiker.
Voordat u zich in de details van de zoekmachine duikt, is het belangrijk op te merken dat Google geen betaling accepteert voor een frequentere scan van de site of voor hogere posities in de zoekresultaten. Als iemand het tegenovergestelde claimt, weet dan dat dit niet waar is.
Google garandeert niet dat de site wordt gescand, geïndexeerd of weergegeven in zoekresultaten, zelfs als de pagina's overeenkomen met Google Search Essentials.
Zoeken in Google vindt plaats in drie fasen, en niet alle pagina's gaan door elk van hen door:
De eerste fase is de zoektocht naar pagina's op internet. Aangezien er geen centraal register van alle webpagina's is, is Google constant op zoek naar nieuwe en bijgewerkte pagina's om ze toe te voegen aan de lijst met beroemde pagina's. Dit proces wordt de "zoeken naar de URL" genoemd. Sommige pagina's zijn al bekend omdat Google ze al heeft bezocht. Andere pagina's zijn te vinden wanneer Google een link uittrekt van een goed bekende pagina naar een nieuwe. Als de sitecategorie bijvoorbeeld verwijst naar een nieuw artikel op de blog. U kunt ook een lijst met pagina's (sitekaart) verzenden zodat Google ze kan indexeren.
Zodra Google de URL -pagina vindt, kan hij deze pagina bezoeken om te begrijpen wat deze is opgenomen. Hiervoor wordt een groot aantal computers gebruikt die miljarden pagina's op internet scannen. Het programma dat deze taak uitvoert, wordt GoogleBot genoemd (ook bekend als Crauler, Robot, Bot of Spider). GoogleBot gebruikt het algoritme om te bepalen welke pagina's te scannen, hoe vaak en hoeveel pagina's u van elke site moet downloaden. GoogleBot is ook op zo'n manier afgestemd dat de servers van sites niet worden overbelast en ze te vaak scannen. Dit mechanisme hangt af van de respons van servers (HTTP 500 -fouten geven bijvoorbeeld aan dat u het proces moet vertragen).
GoogleBot scant echter niet altijd alle pagina's die het vindt. Sommige pagina's zijn mogelijk niet beschikbaar voor Kraler vanwege de site -instellingen, bijvoorbeeld vanwege een verbod op het scannen via het Robots.txt -bestand of vanwege de noodzaak om te autoriseren voor toegang.
Tijdens het craileren maakt Google ook de pagina weer en voert JavaScript uit met behulp van de huidige versie van de Chrome -browser, die helpt om te begrijpen welke inhoud op de pagina wordt weergegeven. Dit is belangrijk, omdat veel sites afhankelijk zijn van JavaScript om inhoud weer te geven, en zonder Google mogelijk geen belangrijke gegevens te zien.
Nadat de pagina is gescand, probeert Google te begrijpen waar deze pagina over gaat. Deze fase wordt indexering genoemd en omvat de verwerking en analyse van tekstinhoud, evenals metathegs, zoals tags
Tijdens indexering bepaalt Google of de pagina een duplicaat is van een andere pagina op internet. Als de pagina's vergelijkbaar zijn, is een canonieke versie geselecteerd, die wordt weergegeven in zoekresultaten. Dit is belangrijk, omdat verschillende pagina's met dezelfde inhoud in verschillende contexten kunnen worden weergegeven (bijvoorbeeld op mobiele apparaten of bij het zoeken naar specifieke versies van pagina's). De canonieke pagina is degene die Google als het meest relevant heeft gekozen om te zoeken.
Google houdt ook rekening met verschillende signalen over de canonieke pagina en de inhoud ervan die kan worden gebruikt bij het uitgeven van een pagina in de zoekopdracht. Het kunnen bijvoorbeeld parameters zijn als de taal van de pagina, het land waaraan inhoud is gebonden en het gemak van de pagina voor de gebruiker.
Als de pagina het indexeringsproces niet doorloopt, is dit mogelijk, dit is te wijten aan de lage kwaliteit van de inhoud of met de installatie van meta-recht verboden indexering. Het is belangrijk om te begrijpen dat niet alle pagina's die Google -processen worden geïndexeerd.
Google accepteert geen betaling om posities in de zoekresultaten te verhogen, en dit alles gebeurt automatisch. Wanneer de gebruiker het verzoek invoert, scant het systeem de index en retourneert de pagina's, die volgens Google het meest relevante verzoek zijn. Om de relevantie te beoordelen, worden verschillende factoren gebruikt, zoals de gebruikerslocatie, taal en apparaat (bijvoorbeeld mobiel of desktop).
Het zoeken naar "fietsreparatie" toont bijvoorbeeld verschillende resultaten aan de gebruiker in Parijs en Hong Kong. Het hangt ook af van welke inhoud het meest relevant is in specifieke voorwaarden.
Afhankelijk van het verzoek veranderen bovendien de zoekelementen die op de pagina worden weergegeven ook. Het verzoek "fietsreparatie" kan bijvoorbeeld de lokale resultaten intrekken, en het verzoek "Modern Bicycle" is om afbeeldingen weer te geven, maar geen lokale resultaten.
Soms kan Google Search Console melden dat de pagina is geïndexeerd, maar deze wordt niet in de zoekresultaten weergegeven. Dit kan te wijten zijn aan verschillende factoren:
Aandacht, we werken constant aan het verbeteren van onze algoritmen. Volg de wijzigingen na de blog Google Zoeken Central.
Als u vragen heeft over het optimaliseren van de zoekopdracht voor uw site, kunt u contact opnemen met SEO.COMPTER BY E -MAIL info@seo.computer of via WhatsApp op nummer +79202044461.
ID 160