{"id":16478,"date":"2023-12-08T13:50:06","date_gmt":"2023-12-08T13:50:06","guid":{"rendered":"https:\/\/sitechecker.pro\/?page_id=16478"},"modified":"2026-02-19T14:37:46","modified_gmt":"2026-02-19T14:37:46","slug":"robots-txt-configure","status":"publish","type":"page","link":"https:\/\/sitechecker.pro\/es\/configure-robots-txt\/","title":{"rendered":"Qu\u00e9 es Robots.txt y c\u00f3mo configurarlo | Sitechecker"},"content":{"rendered":"<p>Los archives Robots.txt sirven para proveer datos valiosos al sistema de escaneo de b\u00fasquedas de una web. Antes de examinar las p\u00e1ginas de tu sitio, los robots de b\u00fasquedas llevan a cabo la verificaci\u00f3n de este archivo. Debido a tal procedimiento, estos pueden mejorar la eficiencia del proceso de escaneo. De esta manera puedes ayudar a los <a href=\"https:\/\/sitechecker.pro\/es\/search-engines\/\">sistemas de b\u00fasquedas<\/a> a ejecutar primeramente la indexaci\u00f3n de los datos m\u00e1s importantes en tu p\u00e1gina. Pero esto s\u00f3lo es posible si configuras correctamente el archivo robots.txt. Al igual que las directrices del generador de archivos robots.txt, la instrucci\u00f3n noindex en la meta etiqueta dirigida a los robots no es m\u00e1s que una recomendaci\u00f3n para los bots. Esa es la raz\u00f3n por la que no pueden garantizar que las p\u00e1ginas cerradas no ser\u00e1n indexadas y no ser\u00e1n incluidas en el \u00edndice. Las garant\u00edas est\u00e1n fuera de lugar en este sentido. Si necesitas cerrar la indexaci\u00f3n de alguna parte de tu sitio, puedes usar una contrase\u00f1a para cerrar ese directorio.<\/p>\n<h2 id=\"mainsyntax\">Sintaxis principal<\/h2>\n<p><strong>User-Agent:<\/strong> el bot al cual le ser\u00e1n aplicadas las siguientes reglas (por ejemplo: <a href=\"https:\/\/sitechecker.pro\/es\/google-bot\/\">Googlebot<\/a>).<\/p>\n<p><strong>Disallow:<\/strong> las p\u00e1ginas a las que deseas cerrar el acceso (al inicio de cada l\u00ednea puedes incluir una larga lista de directrices semejantes).<br \/>\nCada grupo User-Agent \/ Disallow debe ser dividido con una l\u00ednea en blanco. Pero dentro del grupo no debe haber cadenas vac\u00edas (entre User-Agent y la \u00faltima l\u00ednea del comando Disallow).<\/p>\n<p><strong>Hash mark o Numeral (#):<\/strong> puede ser usado cuando necesitamos dejar comentarios en el archive robots.txt para esa l\u00ednea. Cualquier cosa mencionada despu\u00e9s del numeral ser\u00e1 ignorada. Cuando trabajar con un generador archivos robots.txt, este comentario es aplicable a ambas,<br \/>\ntanto para la l\u00ednea como para el final contenido luego de las directrices.<br \/>\nCat\u00e1logos y nombres de archivos son sensibles al registro: los sistemas de b\u00fasquedas aceptan \u00abCatalogo\u00bb, \u00abcatalogo\u00bb, and \u00abCATALOGO\u00bb como instrucciones diferentes.<\/p>\n<p><strong>Host:<\/strong>: es usado por Yandex se\u00f1alar el sitio espejo. Es por esto que si aplicas una <a href=\"https:\/\/sitechecker.pro\/es\/301-redirect\/\">redirecci\u00f3n 301<\/a> por p\u00e1gina para mantener dos sitios juntos, no hay necesidad de repetir el procedimiento para el archivo robots.txt (en el sitio duplicado). En consecuencia, Yandex detectar\u00e1 la directriz mencionada en el sitio web que necesita ser adherido.<\/p>\n<p><strong>Crawl-delay:<\/strong> puedes limitar la velocidad de desplazamiento de tu sitio web, lo cual es de gran utilidad si tienes una gran audiencia en tu sitio. Tales opciones est\u00e1n disponibles dada la protecci\u00f3n del generador de archivos robots.txt de problemas adicionales con una carga extra de tu servidor, la cual es causada porque diversos sistemas de b\u00fasqueda est\u00e1n procesando informaci\u00f3n de tu sitio web.<\/p>\n<p><strong>Frases regulares:<\/strong> para configurar de una manera m\u00e1s flexible las directrices, pues usar dos s\u00edmbolos mencionados a continuaci\u00f3n:<br \/>\n<strong>*<\/strong> (asterisco) \u2013 significa cualquier secuencia de s\u00edmbolos,<br \/>\n<strong>$<\/strong> (signo de d\u00f3lar) representa en final de la fila.<\/p>\n<h2 id=\"mainexamples\">Principales ejemplos del uso del generador robots.txt<\/h2>\n<p>&nbsp;<\/p>\n<h3 id=\"banonsite\">Prohibici\u00f3n de indexaci\u00f3n del sitio entero<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow: \/<\/code><\/div>\n<p>Esta instrucci\u00f3n necesita ser aplicada cuando se crea un Nuevo sitio y usa sub dominios para proveer el acceso al mismo. Al trabajar en un sitio nuevo, es muy com\u00fan que los desarrolladores web olviden cerrar para indexaci\u00f3n algunas partes del sitio, y como resultado, los sistemas de indexaci\u00f3n procesar\u00e1n una copia completa del mismo. Si ocurre tal error, tu dominio maestro necesita ser sometido a una redirecci\u00f3n de tipo 301. \u00a1Un Robot.txt puede ser de gran uso aqu\u00ed!<\/p>\n<h3>El siguiente comando permite la indexaci\u00f3n del sitio completo:<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow:<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banonfolder\">Prohibici\u00f3n de indexaci\u00f3n de una carpeta en particular<\/h3>\n<div class=\"code\"><code>User-agent: Googlebot<br \/>\nDisallow: \/no-index\/<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banforrobot\">Prohibici\u00f3n de visitas a la p\u00e1gina a cierto tipo de robot<\/h3>\n<div class=\"code\"><code>User-agent: Googlebot<br \/>\nDisallow: \/no-index\/this-page.html<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"banonfiletype\">Prohibici\u00f3n de indexaci\u00f3n de cierto tipo de archivo<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow: \/*.pdf$<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"allowpage\">Para permitir una visita a la p\u00e1gina determinada para un determinado robot web<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow: \/no-bots\/block-all-bots-except-rogerbot-page.html<br \/>\nUser-agent: Yandex<br \/>\nAllow: \/no-bots\/block-all-bots-except-Yandex-page.html<br \/>\n<\/code><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"linktositemap\">Sitio web enlazado al sitemap<\/h3>\n<div class=\"code\"><code>User-agent: *<br \/>\nDisallow:<br \/>\nSitemap: http:\/\/www.example.com\/none-standard-location\/sitemap.xml<br \/>\n<\/code><\/div>\n<p>Peculiaridades a tomar en cuenta cuando se usan estas directrices si constantemente est\u00e1s llenando tu sitio con contenido \u00fanico:<\/p>\n<ul>\n<li>No a\u00f1adas un enlace a tu sitemap en un generador de archivos robots.txt;<\/li>\n<li>Escoge algunos nombres no estandarizados o poco comunes para llamar al sitemap o <a href=\"https:\/\/sitechecker.pro\/es\/xml-sitemap\/\">sitemap.xml<\/a> (por ejemplo: mi-nuevo-sitemap.xml y entonces a\u00f1ade este enlace al sistema de b\u00fasquedas usando el webmaster)<\/li>\n<\/ul>\n<p>Esto se debe a que una gran cantidad de webmasters desleales analizan el contenido de otros sitios que no sean los suyos y los utilizan para sus propios proyectos.<\/p>\n<p><span style=\"font-weight: 400;\">    <div class=\"blog__conversion blog__conversion-app element__logged_out\">\n        <div class=\"blog__conversion-inner\">\n            <p class=\"title\">Compruebe las p\u00e1ginas de su sitio web para el estado de indexaci\u00f3n<\/p>\n            <p class=\"description\">Detecte todas las URL no indexadas y descubra qu\u00e9 p\u00e1ginas de sitios pueden ser rastreadas por los robots de los motores de b\u00fasqueda<\/p>\n            <form id=\"audit__form\"\n                  class=\"article__seo-search audit__form Detecte todas las URL no indexadas y descubra qu\u00e9 p\u00e1ginas de sitios pueden ser rastreadas por los robots de los motores de b\u00fasqueda\"\n                  action=\"\"\n                  method=\"POST\"\n                  autocomplete=\"off\">\n                <span class=\"error\"><\/span>\n                <div class=\"error__limits\">Something went wrong. Please, try again later.<\/div>\n                <input name=\"url\"\n                       type=\"text\"\n                       placeholder=\"Ingrese su dominio para comenzar\">\n                                <button type=\"submit\"\n                        class=\"sitechecker__text\">\n                    <span>Auditoria de lanzamiento<\/span>\n                    <img src=\"\/wp-content\/themes\/sitechecker\/out\/img_design\/loading.svg\"\n                         width=\"31\"\n                         height=\"30\"\n                         class=\"loading\">\n                <\/button>\n            <\/form>\n        <\/div>\n    <\/div>\n    <\/span><\/p>\n<h2 id=\"robotsornoindex\">\u00bfQu\u00e9 es mejor? \u00bfGenerador Robots.txt o Noindex?<\/h2>\n<p>Si no quieres que alunas p\u00e1ginas sean indexadas, el noidex como meta etiqueta es lo m\u00e1s recomendable. Para implementarla, necesitas a\u00f1adir la siguiente <a href=\"https:\/\/sitechecker.pro\/es\/meta-tags\/\">metaetiqueta<\/a> en tu p\u00e1gina:<\/p>\n<div class=\"code\"><code>&lt;meta name=\u201drobots\u201d content=\u201dnoindex, follow\u201d&gt;<\/code><\/div>\n<p>Usando este abordaje podr\u00e1s:<\/p>\n<ul>\n<li>Evitar las indexaci\u00f3n de ciertas p\u00e1ginas durante la visita del robot web (no habr\u00e1 necesidad de borrar las p\u00e1ginas manualmente usando un webmaster);<\/li>\n<li>Administrar para transmitir el link juice de tu p\u00e1gina.<\/li>\n<\/ul>\n<p>Los creadores de archivos Robots.txt funcionan mejor para cerrar este tipo de p\u00e1ginas:<\/p>\n<ul>\n<li>P\u00e1ginas administrativas de tu sitio;<\/li>\n<li>Buscar datos en el sitio;<\/li>\n<li>P\u00e1ginas de registro, autorizaci\u00f3n y\/o cambio de clave.<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<h2 id=\"tools\">\u00bfQu\u00e9 herramientas y c\u00f3mo estas puede ayudarme a revisar el archivo robots.txt?<\/h2>\n<p>Cuando generas robots.txt necesitas verificar si estos contienen alg\u00fan error. Los robots.txt de los sistemas de b\u00fasqueda pueden ayudarte a hacer frente a estas tareas:<br \/>\n<strong><br \/>\n<a href=\"https:\/\/www.google.com\/webmasters\/\" target=\"_blank\" rel=\"noopener noreferrer\">Google Webmasters<\/a><br \/>\n<\/strong><br \/>\nInicia sesi\u00f3n en la cuenta con el sitio actual confirmado en su plataforma, luego ve a Rastreo <strong>Crawl<\/strong> y entonces ve a <strong>Robots.txt Tester<\/strong>.<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/robots-txt-tester-in-Google-Webmaster-Tools.png\" alt=\"Robots.txt tester in Google Search Console\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>Esta prueba de Robots.txt te permite:<\/p>\n<ul>\n<li>Detectar todos los errores y posibles problemas de una sola vez;<\/li>\n<li>Revisar en busca de errores y hacer las correcciones necesarias all\u00ed mismo para instalar todos los archivos nuevos en tu sitio sin ninguna verificaci\u00f3n adicional;<\/li>\n<li>Examinar si has cerrado apropiadamente las p\u00e1ginas que te gustar\u00eda evitar que sean indexadas y si esas que se supone van a ir a indexaci\u00f3n estas abiertas apropiadamente.<\/li>\n<\/ul>\n<p><strong><br \/>\n<a href=\"https:\/\/webmaster.yandex.com\/\" target=\"_blank\" rel=\"noopener noreferrer\">Yandex Webmaster<\/a><br \/>\n<\/strong><br \/>\nInicia sesi\u00f3n en la cuenta con el sitio actual confirmado en su plataforma, luego ve a <strong>Tools<\/strong> y entonces ve a an\u00e1lisis de <strong>Robots.txt<\/strong>.<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/robots-txt-tester-in-Yandex-Webmaster-Tools.png\" alt=\"Robobts txt generator for Yandex\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>Este auditor ofrece casi las mismas oportunidades de verificaci\u00f3n que el descrito anteriormente, la diferencia reside en:<\/p>\n<ul>\n<li>Aqu\u00ed no necesitas autorizar y probar los derechos de un sitio que ofrece una verificaci\u00f3n directa de tu archivo robots.txt;<\/li>\n<li>No hay necesidad alguna de insertar cada p\u00e1gina: la lista entera de p\u00e1ginas puede ser revisada en s\u00f3lo una sesi\u00f3n;<\/li>\n<li>Puedes estar seguro que Yandex identificar\u00e1 adecuadamente tus instrucciones.<\/li>\n<\/ul>\n<p><\/p>","protected":false},"excerpt":{"rendered":"Los archives Robots.txt sirven para proveer datos valiosos al sistema de escaneo de b\u00fasquedas de una web. Antes de examinar las p\u00e1ginas de tu sitio, los robots de b\u00fasquedas llevan a cabo la verificaci\u00f3n de este archivo. Debido a tal procedimiento, estos pueden mejorar la eficiencia del proceso de escaneo. De esta manera puedes ayudar&#8230;","protected":false},"author":11474150,"featured_media":3355,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"pages-templates\/pages-v2.php","meta":[],"categories":[28],"tags":[],"_links":{"self":[{"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/pages\/16478"}],"collection":[{"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/users\/11474150"}],"replies":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/comments?post=16478"}],"version-history":[{"count":13,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/pages\/16478\/revisions"}],"predecessor-version":[{"id":39354,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/pages\/16478\/revisions\/39354"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/media\/3355"}],"wp:attachment":[{"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/media?parent=16478"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/categories?post=16478"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/tags?post=16478"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}