{"id":16478,"date":"2023-12-08T13:50:06","date_gmt":"2023-12-08T13:50:06","guid":{"rendered":"https:\/\/sitechecker.pro\/?page_id=16478"},"modified":"2026-02-19T14:37:46","modified_gmt":"2026-02-19T14:37:46","slug":"robots-txt-configure","status":"publish","type":"page","link":"https:\/\/sitechecker.pro\/pt\/configure-robots-txt\/","title":{"rendered":"O que \u00e9 Robots.txt e como configur\u00e1-lo | Sitechecker"},"content":{"rendered":"<p>O arquivo Robots.txt serve para fornecer dados valiosos aos sistemas de busca que escaneiam a Web. Antes de examinar as p\u00e1ginas o seu site, os rob\u00f4s de busca executam a verifica\u00e7\u00e3o desse arquivo. Devido a esse procedimento, eles podem aumentar a efici\u00eancia da explora\u00e7\u00e3o. Desta forma, voc\u00ea pode ajudar a procurar sistemas que executem primeiro a indexa\u00e7\u00e3o dos dados mais importantes em seu site. Mas isso s\u00f3 \u00e9 poss\u00edvel se voc\u00ea configurar corretamente o robots.txt.<\/p>\n<p>Assim como as diretrizes do gerador de arquivos robots.txt, a instru\u00e7\u00e3o noindex nos rob\u00f4s meta-tag n\u00e3o s\u00e3o mais que apenas recomenda\u00e7\u00f5es. Essa \u00e9 a raz\u00e3o pelas qual eles n\u00e3o podem garantir que as p\u00e1ginas fechadas n\u00e3o sejam indexadas e n\u00e3o sejam inclu\u00eddas no \u00edndice. Garantias dessa natureza s\u00e3o descabidas. Se voc\u00ea precisa fechar alguma parte do seu site para indexa\u00e7\u00e3o, voc\u00ea pode usar uma senha para fechar diret\u00f3rios.<\/p>\n<h2 id=\"mainsyntax\">Sintaxe Principal<\/h2>\n<p>&nbsp;<\/p>\n<p><strong>Agente Usu\u00e1rio:<\/strong> o rob\u00f4 ao qual ser\u00e3o aplicadas as regras a seguir (por exemplo: \u201c<a href=\"https:\/\/sitechecker.pro\/pt\/google-bot\/\">Googlebot<\/a>\u201d)<\/p>\n<p><strong>Proibi\u00e7\u00e3o:<\/strong> as p\u00e1ginas que se deseja fechar para acesso (ao iniciar cada nova linha, voc\u00ea pode incluir uma enorme lista de diretrizes).<\/p>\n<p>Todo Grupo Agente Usu\u00e1rio \/ Proibi\u00e7\u00e3o deve ser dividido com um espa\u00e7o em branco. Mas as cadeias n\u00e3o vazias n\u00e3o devem ocorrer dentro dos grupos (entre agente usu\u00e1rio e a \u00faltima diretiva proibi\u00e7\u00e3o).<\/p>\n<p><strong>Marca Jogo da Velha (#)<\/strong> pode ser usada quando necess\u00e1rio para deixar coment\u00e1rios no arquivo robots.txt na linha corrente. Qualquer coisa mencionada ap\u00f3s a marca jogo da velha ser\u00e1 ignorada. Quando voc\u00ea trabalha com o gerador de arquivos robot txt, este coment\u00e1rio \u00e9 aplic\u00e1vel tanto em toda a linha quanto no final ap\u00f3s as diretrizes.<\/p>\n<p>Cat\u00e1logos e nomes de arquivos s\u00e3o sens\u00edveis ao registro: o sistema de busca reconhece &#8220;Cat\u00e1logo&#8221;, &#8220;cat\u00e1logo&#8221; e &#8220;CAT\u00c1LOGO&#8221; como diretrizes diferentes.<\/p>\n<p><strong>Host:<\/strong> \u00e9 usado pelo Yandex para apontar o principal site-espelho. \u00c9 por isso que se voc\u00ea executar o <a href=\"https:\/\/sitechecker.pro\/pt\/301-redirect\/\">redirecionamento 301<\/a> por p\u00e1gina para manter dois sites, n\u00e3o haver\u00e1 necessidade de repetir o procedimento para o arquivo robots.txt (no site duplicado). Assim, a Yandex ir\u00e1 detectar a diretriz mencionada no site que precisa estar associado.<\/p>\n<p><strong>Atraso de Rastreamento:<\/strong> voc\u00ea pode limitar a frequ\u00eancia do seu site, o que \u00e9 muito \u00fatil em caso de alta frequ\u00eancia de atendimento em seu site. Essa op\u00e7\u00e3o \u00e9 ativada devido \u00e0 prote\u00e7\u00e3o do gerador de arquivos robot.txt para problemas adicionais com uma carga extra do servidor provocada pelos diversos sistemas de busca que processam as informa\u00e7\u00f5es no site.<\/p>\n<p><strong>Frases Regulares:<\/strong> para fornecer configura\u00e7\u00f5es mais flex\u00edveis de diretrizes, voc\u00ea pode usar dois s\u00edmbolos mencionados abaixo:<br \/>\n<strong>*<\/strong> (estrela) \u2013 significa qualquer sequ\u00eancia de s\u00edmbolos,<br \/>\n<strong>$<\/strong> (s\u00edmbolo do d\u00f3lar) \u2013 significa fim de linha.<\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"mainexamples\">Principais exemplos de uso de gerador Robots.txt<\/h2>\n<p>&nbsp;<\/p>\n<h3 id=\"banonsite\">Proibir toda indexa\u00e7\u00e3o do site<\/h3>\n<div class=\"code\"><code>Agente Usu\u00e1rio: *<br \/>\nProibi\u00e7\u00e3o: \/<\/code><\/div>\n<p>Esta instru\u00e7\u00e3o precisa ser aplicada quando voc\u00ea cria um novo site, usa subdom\u00ednios e quer fornecer acesso a eles. Voc\u00ea <a href=\"https:\/\/sitechecker.pro\/pt\/\">testar site<\/a> quanto \u00e0 confiabilidade.<br \/>\nMuitas vezes, ao trabalhar em um site novo, os desenvolvedores da Web esquecem de fechar alguma parte do site para a indexa\u00e7\u00e3o e, como resultado, os sistemas de index processam uma c\u00f3pia completa dele. Se o erro ocorreu, deu dom\u00ednio principal precisa ser submetido a um redirecionamento 301 por p\u00e1gina. O Gerador Robot.txt pode ser de grande utilidade!<\/p>\n<p>&nbsp;<\/p>\n<h3>A seguinte constru\u00e7\u00e3o PERMITE a indexa\u00e7\u00e3o de um site inteiro:<\/h3>\n<div class=\"code\"><code>Agente Usu\u00e1rio: *<br \/>\nProibi\u00e7\u00e3o:<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banonfolder\">Proibir a indexa\u00e7\u00e3o de uma p\u00e1gina espec\u00edfica:<\/h3>\n<div class=\"code\"><code>Agente Usu\u00e1rio: Googlebot<br \/>\nProibi\u00e7\u00e3o: \/ no-index\/<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banforrobot\">Proibir a visita \u00e0 p\u00e1gina por um determinado rob\u00f4<\/h3>\n<div class=\"code\"><code>Agente Usu\u00e1rio: Googlebot<br \/>\nProibi\u00e7\u00e3o: \/ no-index\/this-page.html<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banonfiletype\">Proibir a indexa\u00e7\u00e3o de certo tipo de arquivo<\/h3>\n<div class=\"code\"><code>Agente Usu\u00e1rio: *<br \/>\nProibi\u00e7\u00e3o: \/*.pdf$<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"allowpage\">Permitir a visita a uma determinada p\u00e1gina por um determinado web rob\u00f4<\/h3>\n<div class=\"code\"><code>Agente Usu\u00e1rio: *<br \/>\nProibi\u00e7\u00e3o:\/no-bots\/block-all-bots-except-rogerbot-page.html<br \/>\nAgente Usu\u00e1rio: Yandex<br \/>\nPermitir: \/no-bots\/block-all-bots-except-Yandex-page.html<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"linktositemap\">Link do site para o sitemap<\/h3>\n<div class=\"code\"><code>Agente Usu\u00e1rio: *<br \/>\nProibi\u00e7\u00e3o:<br \/>\nSitemap: http:\/\/www.example.com\/none-standard-location\/sitemap.xml<br \/>\n<\/code><\/div>\n<p>Peculiaridades que se deve levar em considera\u00e7\u00e3o ao usar essa diretiva se voc\u00ea estiver constantemente preenchendo seu site com conte\u00fado exclusivo:<\/p>\n<ul>\n<li>N\u00e3o adicione um link ao seu mapa do site no gerador de arquivo robots txt;<\/li>\n<li>escolha um nome n\u00e3o padronizado para o mapa do site do <a href=\"https:\/\/sitechecker.pro\/pt\/xml-sitemap\/\">sitemap.xml<\/a> (por exemplo, my-new-sitemap.xml e, em seguida, adicione este link aos sistemas de pesquisa usando webmasters);<\/li>\n<\/ul>\n<p>porque muitos webmasters desleais analisam o conte\u00fado de outro site, dos seus pr\u00f3prios e os usam para seus pr\u00f3prios projetos.<\/p>\n<p><span style=\"font-weight: 400;\">    <div class=\"blog__conversion blog__conversion-app element__logged_out\">\n        <div class=\"blog__conversion-inner\">\n            <p class=\"title\">Verifique as p\u00e1ginas do seu site para o status de indexa\u00e7\u00e3o<\/p>\n            <p class=\"description\">Detectar todos os URLs n\u00e3o indexados e descobrir quais p\u00e1ginas do site podem ser rastreadas pelos rob\u00f4s do mecanismo de pesquisa<\/p>\n            <form id=\"audit__form\"\n                  class=\"article__seo-search audit__form Detectar todos os URLs n\u00e3o indexados e descobrir quais p\u00e1ginas do site podem ser rastreadas pelos rob\u00f4s do mecanismo de pesquisa\"\n                  action=\"\"\n                  method=\"POST\"\n                  autocomplete=\"off\">\n                <span class=\"error\"><\/span>\n                <div class=\"error__limits\">Something went wrong. Please, try again later.<\/div>\n                <input name=\"url\"\n                       type=\"text\"\n                       placeholder=\"Insira seu dom\u00ednio para come\u00e7ar\">\n                                <button type=\"submit\"\n                        class=\"sitechecker__text\">\n                    <span>Iniciar auditoria<\/span>\n                    <img src=\"\/wp-content\/themes\/sitechecker\/out\/img_design\/loading.svg\"\n                         width=\"31\"\n                         height=\"30\"\n                         class=\"loading\">\n                <\/button>\n            <\/form>\n        <\/div>\n    <\/div>\n    <\/span><\/p>\n<h2 id=\"robotsornoindex\">Qual \u00e9 o melhor gerador de rob\u00f4 TXT ou noindex?<\/h2>\n<p>&nbsp;<\/p>\n<p>Se voc\u00ea n\u00e3o quiser que algumas p\u00e1ginas sejam submetidas a indexa\u00e7\u00e3o, o noindex em rob\u00f4s meta-tags \u00e9 mais aconselh\u00e1vel. Para implement\u00e1-lo, voc\u00ea precisa adicionar a seguinte <a href=\"https:\/\/sitechecker.pro\/pt\/meta-tags\/\">meta-tag<\/a> na se\u00e7\u00e3o de sua p\u00e1gina:<\/p>\n<div class=\"code\"><code>&lt;meta name=\u201drobots\u201d content=\u201dnoindex, follow\u201d&gt;<\/code><\/div>\n<p>Usando essa abordagem, voc\u00ea ir\u00e1:<\/p>\n<ul>\n<li>evitar a indexa\u00e7\u00e3o de determinada p\u00e1gina durante a pr\u00f3xima visita do rob\u00f4 web (voc\u00ea n\u00e3o precisar\u00e1, em seguida, excluir a p\u00e1gina manualmente usando webmasters);<\/li>\n<li>gerenciar a transmiss\u00e3o link juice da sua p\u00e1gina.<\/li>\n<\/ul>\n<p>O gerador de arquivos txt do Robots serve para fechar melhor esses tipos de p\u00e1ginas:<\/p>\n<ul>\n<li>p\u00e1ginas administrativas do seu site;<\/li>\n<li>pesquisas de dados no site;<\/li>\n<li>p\u00e1ginas de registro\/autoriza\u00e7\u00e3o\/redefini\u00e7\u00e3o de senha.<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<h2 id=\"tools\">Quais as ferramentas e como isso pode ajud\u00e1-lo a verificar arquivos robots.txt?<\/h2>\n<p>&nbsp;<\/p>\n<p>Quando voc\u00ea gera Robots.txt, voc\u00ea precisa verificar se ele cont\u00e9m erros. A verifica\u00e7\u00e3o robots.txt do sistema de pesquisa pode lhe ajudar a concretizar essa tarefa:<\/p>\n<p>&nbsp;<\/p>\n<p><strong><a href=\"https:\/\/www.google.com\/webmasters\/\" target=\"_blank\" rel=\"noopener noreferrer\">Google Webmasters<\/a><\/strong><\/p>\n<p>Fa\u00e7a o login na conta do site corrente confirmando sua plataforma, clique em <strong>Rastrear<\/strong> e, em seguida, <strong>Robots.txt tester<\/strong>.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/robots-txt-tester-in-Google-Webmaster-Tools.png\" alt=\"Robots.txt tester in Google Search Console\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<p>Este teste txt do rob\u00f4 permite que voc\u00ea:<\/p>\n<ul>\n<li>detecte todos os erros e problemas poss\u00edveis ao mesmo tempo;<\/li>\n<li>verifique os erros e fa\u00e7a as corre\u00e7\u00f5es necess\u00e1rias para instalar um novo arquivo em seu site sem verifica\u00e7\u00f5es adicionais;<\/li>\n<li>examine se voc\u00ea fechou adequadamente as p\u00e1ginas que voc\u00ea deseja evitar, a indexa\u00e7\u00e3o, e se as que devem ser indexadas est\u00e3o apropriadamente abertas.<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<p><strong><a href=\"https:\/\/webmaster.yandex.com\/\" target=\"_blank\" rel=\"noopener noreferrer\">Yandex Webmaster<\/a><\/strong><\/p>\n<p>Fa\u00e7a o login na conta do site corrente confirmando sua plataforma, clique em <strong>Ferramentas<\/strong> e, em seguida, <strong>Robots.txt. analysis<\/strong>.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/robots-txt-tester-in-Yandex-Webmaster-Tools.png\" alt=\"Robobts txt generator for Yandex\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<p>Este teste oferece quase as mesmas oportunidades de verifica\u00e7\u00e3o j\u00e1 vistas acima. A diferen\u00e7a est\u00e1 em:<\/p>\n<ul>\n<li>aqui voc\u00ea n\u00e3o precisa autorizar ou aprovar os direitos de um site que oferece uma verifica\u00e7\u00e3o imediata do seu arquivo robots.txt;<\/li>\n<li>n\u00e3o h\u00e1 necessidade de uma an\u00e1lise por p\u00e1gina: toda a lista de p\u00e1ginas ser\u00e1 verificada dentro da sess\u00e3o;<\/li>\n<li>voc\u00ea ter\u00e1 certeza de que o Yandex identificou adequadamente suas instru\u00e7\u00f5es.<\/li>\n<\/ul>\n<p><\/p>","protected":false},"excerpt":{"rendered":"O arquivo Robots.txt serve para fornecer dados valiosos aos sistemas de busca que escaneiam a Web. Antes de examinar as p\u00e1ginas o seu site, os rob\u00f4s de busca executam a verifica\u00e7\u00e3o desse arquivo. Devido a esse procedimento, eles podem aumentar a efici\u00eancia da explora\u00e7\u00e3o. Desta forma, voc\u00ea pode ajudar a procurar sistemas que executem primeiro&#8230;","protected":false},"author":11474150,"featured_media":3355,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"pages-templates\/pages-v2.php","meta":[],"categories":[28],"tags":[],"_links":{"self":[{"href":"https:\/\/sitechecker.pro\/pt\/wp-json\/wp\/v2\/pages\/16478"}],"collection":[{"href":"https:\/\/sitechecker.pro\/pt\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/sitechecker.pro\/pt\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/pt\/wp-json\/wp\/v2\/users\/11474150"}],"replies":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/pt\/wp-json\/wp\/v2\/comments?post=16478"}],"version-history":[{"count":13,"href":"https:\/\/sitechecker.pro\/pt\/wp-json\/wp\/v2\/pages\/16478\/revisions"}],"predecessor-version":[{"id":39354,"href":"https:\/\/sitechecker.pro\/pt\/wp-json\/wp\/v2\/pages\/16478\/revisions\/39354"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/pt\/wp-json\/wp\/v2\/media\/3355"}],"wp:attachment":[{"href":"https:\/\/sitechecker.pro\/pt\/wp-json\/wp\/v2\/media?parent=16478"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sitechecker.pro\/pt\/wp-json\/wp\/v2\/categories?post=16478"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sitechecker.pro\/pt\/wp-json\/wp\/v2\/tags?post=16478"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}