Se si utilizza il servizio di hosting per il tuo sito, ad esempio Wix o blogger, potresti non dover modificare direttamente il file robot.txt. Invece, il tuo provider può fornire una pagina delle impostazioni di ricerca o altri meccanismi per indicare i motori di ricerca, quali pagine del sito possono essere indicizzate e quali non lo sono.
Se si desidera nascondere o aprire una delle pagine dai motori di ricerca, leggi le istruzioni per modificare la visibilità della pagina all'hosting, ad esempio, con una query di ricerca "Come nascondere una pagina dai motori di ricerca in Wix". Questo ti aiuterà a controllare quali file possono essere disponibili per bypassare i robot di ricerca utilizzando il file robot.txt.
Il file robots.txt si trova nella radice del tuo sito. Ad esempio, per www.example.com, il file robots.txt si troverà su www.example.com/robots.txt. Questo è un normale file di testo che segue lo standard di eccezione di esclusione dei robot.
Il file robots.txt è costituito da una o più direttive, ognuna delle quali blocca o consente l'accesso per un particolare robot sul percorso specificato sul sito. Per impostazione predefinita, tutti i file sul sito sono consentiti per bypass, se non diversamente specificato.
Ecco un esempio di un semplice file robots.txt con due regole:
User-agent: Googlebot Disallow: /nogooglebot/ User-agent: * Allow: / Sitemap: https://www.example.com/sitemap.xml
Cosa significa questo file:
La creazione di un file robots.txt e i suoi test consiste in diverse fasi:
Le regole nel file robot.txt sono progettate per specificare i robot quali parti del tuo sito possono essere bypassate. Ecco alcuni consigli per scrivere le regole:
User-agent: Googlebot Disallow: /private/ User-agent: * Allow: /
Dopo aver scaricato il file robots.txt sul sito, assicurarsi di testare che è disponibile per i robot di ricerca. Per fare ciò, apri la finestra Incognito nel tuo browser e vai su Robots.txt, ad esempio https://example.com/robots.txt. Se vedi il contenuto del tuo file, significa che è disponibile per l'elaborazione.
Per testare ed eliminare i problemi con i segni, puoi usare:
Dopo che il file robots.txt viene caricato e testato, Google Robots lo troverà automaticamente e inizierà a usarlo. Non è necessario inviare manualmente il file. Tuttavia, se hai aggiornato il file e desideri che Google lo aggiorni rapidamente nella cache, è possibile utilizzare la funzione di aggiornamento robot.txt nella console di ricerca di Google.
Ecco alcuni esempi utili del file robots.txt:
User-agent: * Disallow: /
User-agent: * Disallow: /private/
User-agent: Googlebot Allow: / User-agent: * Disallow: /
Se hai domande sull'impostazione del file robots.txt o di altri problemi SEO, puoi contattare il nostro compagno SEO info@seo.computer o tramite WhatsApp per numero +79202044461.
ID: 4