De invloed van duplicaten op Google-promotie
In dit artikel bekijken we hoe dubbele inhoud de positie van uw website in Google kan beïnvloeden. Eén volger vraagt: “Hoe beïnvloedt dubbele inhoud de SEO op Google? Welke methoden bestaan er om duplicaten te verwijderen? Laten we het uitzoeken.
Hoe Google omgaat met duplicaten
Google is niet vriendelijk tegen het dupliceren van inhoud, vooral als het gaat om het maken van verschillende regionale versies van sites die worden gehost op subdomeinen of submappen. Als de inhoud van pagina's slechts door kleine wijzigingen verschilt, zoals het vervangen van toponiemen, beschouwt de zoekmachine dit als dubbele inhoud. In dit geval kunnen pagina's worden geïndexeerd, maar hun ranking zal beperkt of helemaal niet zijn.
Als de inhoud echter van andere sites is geleend maar nieuwe waarde heeft toegevoegd, kan deze behoorlijk goed scoren in Google. Een voorbeeld hiervan zijn aggregators, die, ondanks het gebruik van informatie uit andere bronnen, na enige tijd verkeer beginnen te genereren. In dergelijke gevallen kan Google een pagina als uniek beschouwen als deze waarde biedt voor gebruikers. Maar als we het hebben over interne dubbele inhoud op één site, is het onwaarschijnlijk dat Google al dergelijke pagina's zal promoten en de voorkeur geeft aan één hoofdversie.
Er is ook een situatie waarin het gelijktijdig aanmaken van dubbele pagina's en het verlies van indicatoren op de hoofdversie van de pagina hand in hand gaan. Hoewel dergelijke gevallen niet zo vaak voorkomen, komen ze nog steeds voor. Het is belangrijk om te bedenken dat dit misschien niet alleen maar toeval is, maar een gerelateerd fenomeen, en dat u voorzichtig moet zijn bij het maken van duplicaten.
Google is dus niet bijzonder voorstander van duplicaten, noch binnen de site, noch op andere bronnen, tenzij die pagina's extra waarde bieden. In sommige gevallen kunnen zelfs volledige duplicaten echter een kans maken om goed te scoren als ze nog steeds iets nuttigs bieden.
Hoe u duplicaten op de juiste manier verwijdert
Als u besluit dat één versie van uw dubbele pagina's moet worden verwijderd, zijn er verschillende opties om dit probleem op te lossen:
Disalov in het bestand robots.txtom de toegang tot deze pagina's voor zoekmachines te blokkeren.rel="canoniek" in sectie elke pagina. Deze tag verwijst zoekmachines naar de hoofdversie van de pagina. Google respecteert deze tag over het algemeen en gebruikt deze om te bepalen welke pagina als de primaire pagina wordt beschouwd. In tegenstelling tot Google houdt Yandex niet altijd rekening met deze tag, wat ertoe kan leiden dat duplicaten in zijn zoekmachine worden geïndexeerd, maar dit levert niet altijd problemen op.robots noindex of titel S-Robots-Tag in de HTTP-header. Dit sluit volledig uit dat dubbele pagina's door zoekmachines worden geïndexeerd.Samenvattend zou ik van deze methoden het gebruik van een 301-omleiding aanraden, omdat dit de meest effectieve methode is. De tweede plaats in betrouwbaarheid is het gebruik van de tag heilig verklaarden vervolgens de metatag geen index of titel S-Robots-Tag, en op de laatste plaats - richtlijnen in robots.txt.
Voor aanvullende informatie en advies kunt u voor eventuele vragen altijd contact opnemen met de SEO studio "SEO COMPUTER" per e-mail info@seo.computer.
Identiteitskaart 5154