{"id":16478,"date":"2023-12-08T13:50:06","date_gmt":"2023-12-08T13:50:06","guid":{"rendered":"https:\/\/sitechecker.pro\/?page_id=16478"},"modified":"2026-02-19T14:37:46","modified_gmt":"2026-02-19T14:37:46","slug":"robots-txt-configure","status":"publish","type":"page","link":"https:\/\/sitechecker.pro\/fr\/configure-robots-txt\/","title":{"rendered":"Qu&#8217;est-ce que Robots.txt et comment le configurer | Sitechecker"},"content":{"rendered":"<p>Le fichier Robots.txt joue un r\u00f4le important pour les recherches sur Net, car avant d&#8217;examiner les pages de votre site, les moteurs de recherche effectuent une v\u00e9rification de ce fichier. Gr\u00e2ce \u00e0 cette proc\u00e9dure, ils peuvent am\u00e9liorer l&#8217;efficacit\u00e9 de la num\u00e9risation. De cette fa\u00e7on, ayant bien configur\u00e9 robots.txt., vous aidez les syst\u00e8mes de recherche \u00e0 effectuer l&#8217;indexation des donn\u00e9es les plus importantes sur vos sites.<\/p>\n<p>Tout comme les directives du g\u00e9n\u00e9rateur de fichiers robots.txt, l&#8217;instruction noindex dans les balises meta robots est une simple recommandation pour le robot. C&#8217;est la raison pour laquelle ils ne peuvent pas garantir que les pages ferm\u00e9es ne seront pas index\u00e9es et incluses dans l&#8217;index. Si vous avez besoin de fermer une partie de votre site pour l&#8217;indexation, vous pouvez utiliser un mot de passe pour fermer les r\u00e9pertoires.<\/p>\n<h2 id=\"mainsyntax\">Syntaxe principale<\/h2>\n<p>&nbsp;<\/p>\n<p><strong>User-Agent:<\/strong> le robot auquel les r\u00e8gles suivantes seront appliqu\u00e9es (par exemple, &#8220;Googlebot&#8221;).<\/p>\n<p><strong>Disallow:<\/strong> t les pages que vous voulez fermer pour l&#8217;acc\u00e8s (au d\u00e9but de chaque nouvelle ligne, vous pouvez inclure une grande liste de directives).<\/p>\n<p>Chaque groupe User-Agent \/ Disallow doit \u00eatre s\u00e9par\u00e9e avec une ligne vide. Mais les cha\u00eenes non vides ne doivent pas appara\u00eetre dans le groupe (entre User-Agent et la derni\u00e8re directive Disallow).<\/p>\n<p><strong>Hash mark (#)<\/strong> est utilis\u00e9 pour laisser des commentaires dans le fichier pour la ligne en cours. Tout ce qui est mentionn\u00e9 apr\u00e8s la signe di\u00e8se sera ignor\u00e9. Quand vous travaillez avec un g\u00e9n\u00e9rateur de fichier robot txt, ce commentaire est applicable pour toute la ligne et \u00e0 la fin de celle-ci apr\u00e8s les directives en m\u00eame temps.<\/p>\n<p>Les catalogues et les noms de fichiers sont sensibles au registre: le syst\u00e8me de recherche voit les termes \u00abCatalogue\u00bb, \u00abCatalogue\u00bb et \u00abCATALOGUE\u00bb comme diff\u00e9rentes directives.<\/p>\n<p><strong>Host:<\/strong> est utilis\u00e9 par Yandex pour indiquer le site miroir principal. C&#8217;est pourquoi si vous effectuez la redirection 301 par page pour coller deux sites, il n&#8217;est pas n\u00e9cessaire de r\u00e9p\u00e9ter la proc\u00e9dure pour le fichier robots.txt (sur le site dupliqu\u00e9). Yandex d\u00e9tectera la directive mentionn\u00e9e sur le site qui doit \u00eatre bloqu\u00e9.<\/p>\n<p><strong>Crawl-delay:<\/strong> vous pouvez limiter la vitesse de votre site, ce qui est tr\u00e8s utile si celui-ci est fr\u00e9quemment visit\u00e9. Cette option est activ\u00e9e pour prot\u00e9ger le g\u00e9n\u00e9rateur de fichiers de ce type des probl\u00e8mes avec le chargement suppl\u00e9mentaire de votre serveur. Cela est caus\u00e9 parce que divers syst\u00e8mes de recherche traitent les informations sur les sites.<\/p>\n<p><strong>Regular phrases:<\/strong> pour fournir des param\u00e8tres de directives plus flexibles, vous pouvez utiliser deux symboles mentionn\u00e9s ci-dessous:<br \/>\n<strong>*<\/strong> (\u00e9toile) \u2013 signifie toute s\u00e9quence de symboles,<br \/>\n<strong>$<\/strong> (signe de dollar) \u2013 signifie la fin de la ligne.<\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"mainexamples\">Les cas principaux de l\u2019utilisation du g\u00e9n\u00e9rateur robots.txt<\/h2>\n<p>&nbsp;<\/p>\n<h3 id=\"banonsite\">Pour interdire l&#8217;indexation compl\u00e8te du site<\/h3>\n<div class=\"code\"><code>Agent utilisateur: *<br \/>\nDisallow: \/<\/code><\/div>\n<p>Cette instruction est appliqu\u00e9e quand vous cr\u00e9ez un nouveau site et utilisez des sous-domaines pour y acc\u00e9der.<br \/>\nTr\u00e8s souvent, en cr\u00e9ant un nouveau site, les d\u00e9veloppeurs Web oublient de fermer une partie de celui-ci pour l&#8217;indexation et, par cons\u00e9quent, les syst\u00e8mes d&#8217;index en traitent une copie. Si une telle erreur a eu lieu, votre master domain est soumis \u00e0 la redirection 301 par page. N&#8217;oubliez pas de <a href=\"https:\/\/sitechecker.pro\/fr\/redirect-checker\/\">test redirections<\/a> de page de temps en temps. Le g\u00e9n\u00e9rateur Robot.txt est tr\u00e8s utile!<\/p>\n<p>&nbsp;<\/p>\n<h3>La construction suivante PERMET d&#8217;indexer l&#8217;ensemble du site:<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow:<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banonfolder\">L\u2019interdiction d&#8217;indexation d&#8217;un dossier particulier<\/h3>\n<div class=\"code\"><code>User-agent: Googlebot<br \/>\nDisallow: \/no-index\/<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banforrobot\">L\u2019interdiction pour certains robots de recherche de visiter la page<\/h3>\n<div class=\"code\"><code>User-agent: Googlebot<br \/>\nDisallow: \/no-index\/this-page.html<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banonfiletype\">L\u2019interdiction d&#8217;indexation de certains types de fichiers<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow: \/*.pdf$<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"allowpage\">Pour permettre \u00e0 certains robots Web de visiter une page d\u00e9termin\u00e9e<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow: \/no-bots\/block-all-bots-except-rogerbot-page.html<br \/>\nUser-agent: Yandex<br \/>\nAllow: \/no-bots\/block-all-bots-except-Yandex-page.html<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"linktositemap\">Website lien \u00e0 sitemap<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow:<br \/>\nSitemap: http:\/\/www.example.com\/none-standard-location\/sitemap.xml<br \/>\n<\/code><\/div>\n<p>Si vous remplissez en permanence votre site avec un contenu unique il y a quelques particularit\u00e9s \u00e0 prendre en compte lors de l&#8217;utilisation de cette directive:<\/p>\n<ul>\n<li>n&#8217;ajoutez pas de lien dans votre sitemap dans le g\u00e9n\u00e9rateur de fichier robots.txt<\/li>\n<li>choisissez un nom non-standartis\u00e9 pour le plan du site de sitemap.xml (par exemple, my-new-sitemap.xml, puis ajoutez ce lien aux syst\u00e8mes de recherche \u00e0 l&#8217;aide des webmasters).<\/li>\n<\/ul>\n<p>Le fait est que beaucoup de webmasters malhonn\u00eates analysent le contenu des autres sites et l\u2019utilisent pour leurs propres projets.<\/p>\n<p><span style=\"font-weight: 400;\">    <div class=\"blog__conversion blog__conversion-app element__logged_out\">\n        <div class=\"blog__conversion-inner\">\n            <p class=\"title\">V\u00e9rifiez le statut d'indexation des pages de votre site Web<\/p>\n            <p class=\"description\">D\u00e9tecter toutes les URL noindexed et savoir quelles pages du site sont autoris\u00e9es \u00e0 \u00eatre explor\u00e9es par les robots des moteurs de recherche<\/p>\n            <form id=\"audit__form\"\n                  class=\"article__seo-search audit__form D\u00e9tecter toutes les URL noindexed et savoir quelles pages du site sont autoris\u00e9es \u00e0 \u00eatre explor\u00e9es par les robots des moteurs de recherche\"\n                  action=\"\"\n                  method=\"POST\"\n                  autocomplete=\"off\">\n                <span class=\"error\"><\/span>\n                <div class=\"error__limits\">Something went wrong. Please, try again later.<\/div>\n                <input name=\"url\"\n                       type=\"text\"\n                       placeholder=\"Entrez votre domaine pour commencer\">\n                                <button type=\"submit\"\n                        class=\"sitechecker__text\">\n                    <span>Audit de lancement<\/span>\n                    <img src=\"\/wp-content\/themes\/sitechecker\/out\/img_design\/loading.svg\"\n                         width=\"31\"\n                         height=\"30\"\n                         class=\"loading\">\n                <\/button>\n            <\/form>\n        <\/div>\n    <\/div>\n    <\/span><\/p>\n<h2 id=\"robotsornoindex\">Quelle m\u00e9thode est meilleure: le g\u00e9n\u00e9rateur de robots.txt ou noindex?<\/h2>\n<p>&nbsp;<\/p>\n<p>Si vous ne voulez pas certaines pages d\u2019\u00eatre index\u00e9es, on recommande noindex dans la balise meta robot. Pour l&#8217;impl\u00e9menter, vous devez ajouter la <a href=\"https:\/\/sitechecker.pro\/fr\/meta-tags\/\" target=\"_blank\" rel=\"noopener noreferrer\">m\u00e9ta-balise<\/a> suivante dans la section de votre page:<\/p>\n<div class=\"code\"><code>&lt;meta name=\u201drobots\u201d content=\u201dnoindex, follow\u201d&gt;<\/code><\/div>\n<p>En utilisant cette approche, vous pouvez:<\/p>\n<ul>\n<li>\u00e9viter l&#8217;indexation de certaines pages lors de la prochaine visite du robot (il ne sera pas n\u00e9cessaire de supprimer la page manuellement en utilisant les webmasters);<\/li>\n<li>g\u00e9rer pour transmettre le jus de r\u00e9f\u00e9rencement de votre page.<\/li>\n<\/ul>\n<p>En outre, le g\u00e9n\u00e9rateur de fichiers robots.txt sert mieux pour fermer ces types de pages:<\/p>\n<ul>\n<li>les pages administratives de votre site;<\/li>\n<li>les donn\u00e9es de recherhces sur le site;<\/li>\n<li>pages d&#8217;enregistrement \/ autorisation \/ r\u00e9initialisation du mot de passe.<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<h2 id=\"tools\">Quels outils vous aident \u00e0 analyser le fichier robots.txt?<\/h2>\n<p>&nbsp;<\/p>\n<p>En cr\u00e9ant ces fichiers, vous devez v\u00e9rifier s&#8217;ils ne contiennent pas des erreurs. Pour cela vous pouvez utiliser la v\u00e9rification par les syst\u00e8mes de recherche:<\/p>\n<p>&nbsp;<\/p>\n<p><strong><a href=\"https:\/\/www.google.com\/webmasters\/\" target=\"_blank\" rel=\"noopener noreferrer\">Google Webmasters<\/a><\/strong><\/p>\n<p>Connectez-vous au compte avec le site confirm\u00e9 sur sa plate-forme, passez \u00e0 Crawl, puis \u00e0 Robot.txt Tester.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/robots-txt-tester-in-Google-Webmaster-Tools.png\" alt=\"Robots.txt tester in Google Search Console\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<p>Ce test de robot txt vous permet de:<\/p>\n<ul>\n<li>d\u00e9tecter toutes vos erreurs et tous les probl\u00e8mes existants;<\/li>\n<li>v\u00e9rifier les erreurs et faire les corrections n\u00e9cessaires pour installer ensuite le nouveau fichier sur votre site sans aucune v\u00e9rification suppl\u00e9mentaire;<\/li>\n<li>examiner si vous avez bien ferm\u00e9 les pages que vous ne voulez pas d\u2019\u00eatre index\u00e9es et si celles qui doivent \u00eatre soumises \u00e0 l\u2019indexation sont ouvertes.<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<p><strong><a href=\"https:\/\/webmaster.yandex.com\/\" target=\"_blank\" rel=\"noopener noreferrer\">Yandex Webmaster<\/a><\/strong><\/p>\n<p>Connectez-vous au compte avec le site confirm\u00e9 sur sa plate-forme, passez \u00e0 Outils, puis \u00e0 l&#8217;analyse Robots.txt.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/robots-txt-tester-in-Yandex-Webmaster-Tools.png\" alt=\"Robobts txt generator for Yandex\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<p>Ce testeur propose presque le m\u00eame analyse que le pr\u00e9c\u00e9dent. La diff\u00e9rence n\u2019est que:<\/p>\n<ul>\n<li>ici vous n&#8217;avez pas besoin d&#8217;autoriser et de prouver les droits pour un site, il y a une v\u00e9rification imm\u00e9diate de votre fichier;<\/li>\n<li>il n&#8217;est pas n\u00e9cessaire d&#8217;ins\u00e9rer par page: il est possible de v\u00e9rifier la liste compl\u00e8te des pages en une seule session<\/li>\n<li>vous pouvez vous assurer que Yandex a bien identifi\u00e9 vos instructions.<\/li>\n<\/ul>\n<p id=\"check\">\n<p><\/p>","protected":false},"excerpt":{"rendered":"Le fichier Robots.txt joue un r\u00f4le important pour les recherches sur Net, car avant d&#8217;examiner les pages de votre site, les moteurs de recherche effectuent une v\u00e9rification de ce fichier. Gr\u00e2ce \u00e0 cette proc\u00e9dure, ils peuvent am\u00e9liorer l&#8217;efficacit\u00e9 de la num\u00e9risation. De cette fa\u00e7on, ayant bien configur\u00e9 robots.txt., vous aidez les syst\u00e8mes de recherche \u00e0&#8230;","protected":false},"author":11474150,"featured_media":3355,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"pages-templates\/pages-v2.php","meta":[],"categories":[28],"tags":[],"_links":{"self":[{"href":"https:\/\/sitechecker.pro\/fr\/wp-json\/wp\/v2\/pages\/16478"}],"collection":[{"href":"https:\/\/sitechecker.pro\/fr\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/sitechecker.pro\/fr\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/fr\/wp-json\/wp\/v2\/users\/11474150"}],"replies":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/fr\/wp-json\/wp\/v2\/comments?post=16478"}],"version-history":[{"count":13,"href":"https:\/\/sitechecker.pro\/fr\/wp-json\/wp\/v2\/pages\/16478\/revisions"}],"predecessor-version":[{"id":39354,"href":"https:\/\/sitechecker.pro\/fr\/wp-json\/wp\/v2\/pages\/16478\/revisions\/39354"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/fr\/wp-json\/wp\/v2\/media\/3355"}],"wp:attachment":[{"href":"https:\/\/sitechecker.pro\/fr\/wp-json\/wp\/v2\/media?parent=16478"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sitechecker.pro\/fr\/wp-json\/wp\/v2\/categories?post=16478"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sitechecker.pro\/fr\/wp-json\/wp\/v2\/tags?post=16478"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}