{"id":16478,"date":"2023-12-08T13:50:06","date_gmt":"2023-12-08T13:50:06","guid":{"rendered":"https:\/\/sitechecker.pro\/?page_id=16478"},"modified":"2026-02-19T14:37:46","modified_gmt":"2026-02-19T14:37:46","slug":"robots-txt-configure","status":"publish","type":"page","link":"https:\/\/sitechecker.pro\/it\/configure-robots-txt\/","title":{"rendered":"Che cos&#8217;\u00e8 Robots.txt e come configurarlo | Sitechecker"},"content":{"rendered":"<p>Il file Robots.txt serve a fornire dati preziosi ai sistemi di ricerca che eseguono la scansione del Web. Prima di esaminare le pagine del tuo sito, i robot di ricerca eseguono la verifica di questo file. A causa di tale procedura, possono migliorare l&#8217;efficienza della scansione. In questo modo aiuterai i <a href=\"https:\/\/sitechecker.pro\/it\/search-engines\/\">sistemi di ricerca<\/a> a eseguire l&#8217;indicizzazione dei dati pi\u00f9 importanti sul tuo sito. Ma questo \u00e8 possibile solo se hai correttamente configurato robots.txt.<\/p>\n<p>Proprio come le direttive del generatore di file robots.txt, l&#8217;istruzione noindex nei robot meta tag non \u00e8 altro che una semplice raccomandazione per i robot. Questo \u00e8 il motivo per cui non possono garantire che le pagine chiuse non saranno indicizzate e non saranno incluse nell&#8217;indice. Le garanzie in questa preoccupazione sono fuori luogo. Se \u00e8 necessario chiudere per l&#8217;indicizzazione alcune parti del proprio sito, \u00e8 possibile utilizzare una password per chiudere le directory.<\/p>\n<h2 id=\"mainsyntax\">Sintassi principale<\/h2>\n<p>&nbsp;<\/p>\n<p><strong>User-Agent:<\/strong> il robot a cui verranno applicate le seguenti regole (ad esempio, &#8220;<a href=\"https:\/\/sitechecker.pro\/it\/google-bot\/\">Googlebot<\/a>\u201d)<\/p>\n<p><strong>Disallow:<\/strong> le pagine che si desidera chiudere per l&#8217;accesso (quando si inizia ogni nuova riga \u00e8 possibile includere una grande lista delle direttive allo stesso modo)<br \/>\nOgni gruppo User-Agent \/ Disallow dovrebbe essere diviso con una riga vuota. Ma le stringhe non vuote non dovrebbero verificarsi all&#8217;interno del gruppo (tra User-Agent e l&#8217;ultima direttiva Disallow).<\/p>\n<p><strong>Hash mark (#)<\/strong> pu\u00f2 essere utilizzato quando necessario per lasciare commenti nel file robots.txt per la riga corrente. Qualsiasi cosa menzionata dopo il segno cancelletto verr\u00e0 ignorata. Quando si lavora con il generatore di file txt robot, questo commento \u00e8 applicabile sia per l&#8217;intera linea che alla fine di esso dopo le direttive.<br \/>\nCataloghi e nomi di file sono sensibili al registro: il sistema di ricerca accetta &#8220;Catalogo&#8221;, &#8220;catalogo&#8221; e &#8220;CATALOGO&#8221; come diverse direttive.<\/p>\n<p><strong>Host:<\/strong> viene utilizzato per Yandex per indicare il sito mirror principale. Ecco perch\u00e8 se esgui il redirect 301 per pagina per incollare due siti, non \u00e8 necessario ripetere la procedura per il file robots.txt (sul sito duplicato). Pertanto, Yandex rilever\u00e0 la direttiva citata sul sito che deve essere bloccata.<\/p>\n<p><strong>Crawl-delay:<\/strong> puoi limitare la velocit\u00e0 del tuo attraversamento del sito che \u00e8 di grande utilit\u00e0 in caso di alta frequenza di frequenza sul tuo sito. Tale opzione \u00e8 abilitata a causa della protezione del generatore di file robot.txt da ulteriori problemi con un carico aggiuntivo del server causato da diversi sistemi di ricerca che elaborano le informazioni sul sito.<\/p>\n<p><strong>Frasi regolari:<\/strong> per fornire impostazioni di direttive pi\u00f9 flessibili, puoi utilizzare due simboli menzionati di seguito:<br \/>\n<strong>*<\/strong> (star) \u2013 significa qualsiasi sequenza di simboli,<br \/>\n<strong>$<\/strong> (dollar sign) \u2013 sta per la fine del rigo.<\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"mainexamples\">Esempi principali di uso del robots.txt generator<\/h2>\n<p>&nbsp;<\/p>\n<h3 id=\"banonsite\">Divieto dell&#8217;intera indicizzazione del sito<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow: \/<\/code><\/div>\n<p>Questa istruzione deve essere applicata quando si crea un nuovo sito e si utilizzano i sottodomini per fornire l&#8217;accesso ad esso.<br \/>\nMolto spesso quando si lavora su un nuovo sito, gli sviluppatori Web dimenticano di chiudere alcune parti del sito per l&#8217;indicizzazione e, di conseguenza, i sistemi di indicizzazione ne elaborano una copia completa. Se si verifica tale errore, il dominio principale deve essere sottoposto a <a href=\"https:\/\/sitechecker.pro\/it\/301-redirect\/\">reindirizzamento 301<\/a> per pagina. Il generatore di Robot.txt pu\u00f2 essere di grande utilit\u00e0!<\/p>\n<p>&nbsp;<\/p>\n<h3>Il costrutto seguento PERMETTE di indicizzare l\u2019intero sito:<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow:<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banonfolder\">Escludere l&#8217;indicizzazione di una determinata cartella<\/h3>\n<div class=\"code\"><code>User-agent: Googlebot<br \/>\nDisallow: \/no-index\/<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banforrobot\">Divieto di visitare la pagina per un certo robott<\/h3>\n<div class=\"code\"><code>User-agent: Googlebot<br \/>\nDisallow: \/no-index\/this-page.html<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banonfiletype\">Divieto di indicizzare determinati tipi di file<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow: \/*.pdf$<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"allowpage\">Per consentire una visita alla pagina determinata per un determinato robot web<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow: \/no-bots\/block-all-bots-except-rogerbot-page.html<br \/>\nUser-agent: Yandex<br \/>\nAllow: \/no-bots\/block-all-bots-except-Yandex-page.html<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"linktositemap\">Link sito alla sitemap<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow:<br \/>\nSitemap: http:\/\/www.example.com\/none-standard-location\/sitemap.xml<br \/>\n<\/code><\/div>\n<p>Peculiarit\u00e0 da tenere in considerazione quando si utilizza questa direttiva se si riempie costantemente il proprio sito di contenuti unici:<\/p>\n<ul>\n<li>non aggiungere un collegamento alla Sitemap nel generatore di file txt di robot;<\/li>\n<li>scegli un nome non standardizzato per la mappa del sito di <a href=\"https:\/\/sitechecker.pro\/it\/xml-sitemap\/\">sitemap.xml<\/a> (ad esempio my-new-sitemap.xml e quindi aggiungi questo link ai sistemi di ricerca usando i webmaster);<\/li>\n<\/ul>\n<p>perch\u00e9 un gran numero di webmaster abusivi analizzano il contenuto da altri siti ma sono i loro e li usano per i propri progetti.<\/p>\n<p><span style=\"font-weight: 400;\">    <div class=\"blog__conversion blog__conversion-app element__logged_out\">\n        <div class=\"blog__conversion-inner\">\n            <p class=\"title\">Controlla le pagine del tuo sito web per lo stato di indicizzazione<\/p>\n            <p class=\"description\">Rileva tutti gli URL senza indirizzo e scopri quali pagine del sito possono essere scansionate dai robot dei motori di ricerca<\/p>\n            <form id=\"audit__form\"\n                  class=\"article__seo-search audit__form Rileva tutti gli URL senza indirizzo e scopri quali pagine del sito possono essere scansionate dai robot dei motori di ricerca\"\n                  action=\"\"\n                  method=\"POST\"\n                  autocomplete=\"off\">\n                <span class=\"error\"><\/span>\n                <div class=\"error__limits\">Something went wrong. Please, try again later.<\/div>\n                <input name=\"url\"\n                       type=\"text\"\n                       placeholder=\"Inserisci il tuo dominio per iniziare\">\n                                <button type=\"submit\"\n                        class=\"sitechecker__text\">\n                    <span>Avvia audit<\/span>\n                    <img src=\"\/wp-content\/themes\/sitechecker\/out\/img_design\/loading.svg\"\n                         width=\"31\"\n                         height=\"30\"\n                         class=\"loading\">\n                <\/button>\n            <\/form>\n        <\/div>\n    <\/div>\n    <\/span><\/p>\n<h2 id=\"robotsornoindex\">\u00c8 meglio generatore robots txt generator o noindex?<\/h2>\n<p>&nbsp;<\/p>\n<p>Se non vuoi che alcune pagine vengano sottoposte a indicizzazione, \u00e8 meglio consigliare noindex nei robot <a href=\"https:\/\/sitechecker.pro\/it\/meta-tags\/\">meta tag<\/a>. Per implementarlo, \u00e8 necessario aggiungere i seguenti meta tag nella sezione della tua pagina:<\/p>\n<div class=\"code\"><code>&lt;meta name=\u201drobots\u201d content=\u201dnoindex, follow\u201d&gt;<\/code><\/div>\n<p>Usando questo approccio, otterrai:<\/p>\n<ul>\n<li>evitare l&#8217;indicizzazione di determinate pagine durante la visita successiva del robot Web (non sar\u00e0 quindi necessario eliminare manualmente la pagina utilizzando i webmaster);<\/li>\n<li>riesci a comunicare il succo di collegamento della tua pagina.<\/li>\n<\/ul>\n<p>Robots txt file generator serve meglio per chiudere tali tipi di pagine:<\/p>\n<ul>\n<li>pagini amministrative del tuo sito;<\/li>\n<li>dati di ricerca del sito;<\/li>\n<li>pagina di registrazione\/autorizzazione\/reset password.<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<h2 id=\"tools\">Quali strumenti e come possono aiutarti per fare un check del file robots.txt?<\/h2>\n<p>&nbsp;<\/p>\n<p>Quando generi robots.txt, devi verificare se contengono errori. Il controllo robots.txt dei sistemi di ricerca pu\u00f2 aiutarti a far fronte a questa attivit\u00e0:<\/p>\n<p>&nbsp;<\/p>\n<p><strong><a href=\"https:\/\/www.google.com\/webmasters\/\" target=\"_blank\" rel=\"noopener noreferrer\">Google Webmasters<\/a><\/strong><\/p>\n<p>Fai il login al tuo account per confermare il sito attuale sulla piattaforma, passare ai <strong>Crawl<\/strong> and poi al <strong>robots.txt Tester<\/strong>.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/robots-txt-tester-in-Google-Webmaster-Tools.png\" alt=\"Robots.txt tester in Google Search Console\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<p>Questo robot txt test ti permette di:<\/p>\n<ul>\n<li>Rileva tutti i tuoi errori e possibili problemi contemporaneamente;<\/li>\n<li>controlla gli errori e apporta le correzioni necessarie qui per installare il nuovo file sul tuo sito senza ulteriori verifiche;<\/li>\n<li>esamina se hai giustamente chiuso le pagine che desideri evitare l&#8217;indicizzazione e se quelle che dovrebbero essere sottoposte a indicizzazione sono adeguatamente aperte.<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<p><strong><a href=\"https:\/\/webmaster.yandex.com\/\" target=\"_blank\" rel=\"noopener noreferrer\">Yandex Webmaster<\/a><\/strong><\/p>\n<p>Entra nel tuo account con il sito confermato sulla piattaforma, passa a <strong>Tools<\/strong> poi a <strong>Robots.txt analysis<\/strong>.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/robots-txt-tester-in-Yandex-Webmaster-Tools.png\" alt=\"Robobts txt generator for Yandex\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<p>Questo tester offre quasi le stesse opportunit\u00e0 di verifica come quella sopra descritta. La differenza risiede in:<\/p>\n<ul>\n<li>qui non \u00e8 necessario autorizzare e provare i diritti per un sito che offre una verifica immediata del tuo file robots.txt;<\/li>\n<li>non \u00e8 necessario inserire per pagina: l&#8217;intero elenco di pagine pu\u00f2 essere controllato all&#8217;interno di una sessione<\/li>\n<li>puoi assicurarti che Yandex abbia correttamente identificato le tue istruzioni.<\/li>\n<\/ul>\n<p id=\"check\">\n<p><\/p>","protected":false},"excerpt":{"rendered":"Il file Robots.txt serve a fornire dati preziosi ai sistemi di ricerca che eseguono la scansione del Web. Prima di esaminare le pagine del tuo sito, i robot di ricerca eseguono la verifica di questo file. A causa di tale procedura, possono migliorare l&#8217;efficienza della scansione. In questo modo aiuterai i sistemi di ricerca a&#8230;","protected":false},"author":11474150,"featured_media":3355,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"pages-templates\/pages-v2.php","meta":[],"categories":[28],"tags":[],"_links":{"self":[{"href":"https:\/\/sitechecker.pro\/it\/wp-json\/wp\/v2\/pages\/16478"}],"collection":[{"href":"https:\/\/sitechecker.pro\/it\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/sitechecker.pro\/it\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/it\/wp-json\/wp\/v2\/users\/11474150"}],"replies":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/it\/wp-json\/wp\/v2\/comments?post=16478"}],"version-history":[{"count":13,"href":"https:\/\/sitechecker.pro\/it\/wp-json\/wp\/v2\/pages\/16478\/revisions"}],"predecessor-version":[{"id":39354,"href":"https:\/\/sitechecker.pro\/it\/wp-json\/wp\/v2\/pages\/16478\/revisions\/39354"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/it\/wp-json\/wp\/v2\/media\/3355"}],"wp:attachment":[{"href":"https:\/\/sitechecker.pro\/it\/wp-json\/wp\/v2\/media?parent=16478"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sitechecker.pro\/it\/wp-json\/wp\/v2\/categories?post=16478"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sitechecker.pro\/it\/wp-json\/wp\/v2\/tags?post=16478"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}