{"id":795,"date":"2023-12-07T12:41:26","date_gmt":"2023-12-07T12:41:26","guid":{"rendered":"https:\/\/sitechecker.pro\/?page_id=795"},"modified":"2024-10-10T09:50:17","modified_gmt":"2024-10-10T09:50:17","slug":"google-bot","status":"publish","type":"page","link":"https:\/\/sitechecker.pro\/es\/google-bot\/","title":{"rendered":"Optimizaci\u00f3n de Googlebot: Descubre 6 estrategias para optimizar tu sitio web"},"content":{"rendered":"<p>Es probable que ya conozcas el SEO y sus buenas pr\u00e1cticas: el valor de la estructura de un sitio web, las reglas para etiquetar, keyword stuffing, el valor del contenido \u00fanico y otras tantas cosas a poner en pr\u00e1ctica. Si es as\u00ed, entonces de seguro ya has o\u00eddo hablar de Google bots. Sin embargo, \u00bfqu\u00e9 tanto sabes de Google bots?<br \/>\nEste fen\u00f3meno difiere de la popularmente conocida optimizaci\u00f3n SEO, ya que se ejecuta en un nivel m\u00e1s profundo. Si una optimizaci\u00f3n SEO trata de optimizar un texto para la b\u00fasqueda en los buscadores, entonces Gooogle Bot es un proceso de optimizaci\u00f3n para las Google Spiders. Por supuesto, estos procesos tienen similaridades, pero perm\u00edtenos dejar clara su gran diferencia, ya que esta puede influir profundamente en tu sitio web. Aqu\u00ed hablaremos del fen\u00f3meno de hacer \u201ccrawling\u201d en un sitio web, ya que este es el asunto principal al que todos debemos prestar atenci\u00f3n si hablamos de la \u201cbuscabilidad\u201d de un sitio web.<\/p>\n<p>&nbsp;<\/p>\n<h2>Tabla de Contenidos<\/h2>\n<p>&nbsp;<\/p>\n<ul>\n<li><a href=\"#whatis\">\u00bfQu\u00e9 es Googlebot?<\/a><\/li>\n<li><a href=\"#6strategies\">6 estrategias acerca de c\u00f3mo optimizar tu sitio web para el rastreo (crawling) de Googlebot<\/a>\n<ul>\n<li><a href=\"#notoverdo\">Exagerar no es bueno<\/a><\/li>\n<li><a href=\"#robotsunderestmating\">No subestimar los archivos robots.txt<\/a><\/li>\n<li><a href=\"#uniquecontent\">El contenido y de valor realmente importa<\/a><\/li>\n<li><a href=\"#scroll\">Obteniendo desplazamientos m\u00e1gicos en la p\u00e1gina<\/a><\/li>\n<li><a href=\"#internallinks\">Debes comenzar a usar links internos<\/a><\/li>\n<li><a href=\"#sitemapvital\">SSitemap.xml es vital<\/a><\/li>\n<\/ul>\n<\/li>\n<li><a href=\"#analyzebot\">\u00bfC\u00f3mo analizar la actividad de Googlebot?<\/a>\n<ul>\n<li><a href=\"#crawlingerrors\">Errores comunes de rastreo<\/a><\/li>\n<li><a href=\"#sitemaps\">Sitemaps<\/a><\/li>\n<li><a href=\"#fetching\">Atracci\u00f3n<\/a><\/li>\n<li><a href=\"#crawlstats\">Estad\u00edsticas de crawling (rastreo)<\/a><\/li>\n<li><a href=\"#urlparameters\">Los par\u00e1metros URL<\/a><\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<h2 id=\"whatis\">\u00bfQu\u00e9 es Googlebot?<\/h2>\n<p>&nbsp;<\/p>\n<p>Los rastreadores de sitios webs (tambi\u00e9n llamados crawlers) son bots o robots que examinan una p\u00e1gina web y crean un \u00edndice. Si una p\u00e1gina web permite acceso a un robot, entonces este bot a\u00f1ade esta p\u00e1gina a su \u00edndice, y solo entonces esta p\u00e1gina se vuelve accesible para los usuarios. Si deseas ver c\u00f3mo se ejecuta este proceso, mira esto. Si deseas entender el proceso de optimizaci\u00f3n de Googlebot, necesitas reconocer exactamente c\u00f3mo es que una Google Spider escanea un sitio web. Aqu\u00ed est\u00e1n los cuatro pasos.<\/p>\n<p>&nbsp;<\/p>\n<h3>S\u00ed una p\u00e1gina web tiene alto nivel en el ranking, Google Spider emplear\u00e1 m\u00e1s tiempo en el rastreo<\/h3>\n<p>Aqu\u00ed es donde podemos hablar del \u201cCrawl Budget\u201d, qu\u00e9 es el tiempo exacto que un robot pasa escaneando un determinado sitio: a mayor autoridad, mayor presupuesto recibir\u00e1.<\/p>\n<p>&nbsp;<\/p>\n<h3>Los Google Robots rastrean un sitio web constantemente<\/h3>\n<p>He aqu\u00ed lo que Google dice al respecto: \u201cLos Google robots no tiene que acceder a un sitio web m\u00e1s de una vez por segundo\u201d. Lo que significa que tu sitio web esta bajo el control constante de Google Spiders si es necesario que estas entren al mismo. Hoy en d\u00eda muchos managers y especialistas SEO debaten sobre el llamado \u201critmo de rastreo\u201d y trata de encontrar una manera optima que el rastreo de un sitio web se haga a un buen nivel de rankeo. Sin embargo, aqu\u00ed podr\u00edamos estar hablando de una mala interpretaci\u00f3n, ya que el \u201critmo de rastreo\u201d no es m\u00e1s que la velocidad del robot de Google tratando de alcanzar una petici\u00f3n de rastreo. Incluso es posible modificar este ritmo por nosotros mismos con una herramienta de Webaster. Un gran n\u00famero de backlinks (o enlaces entrantes), singularidad y menciones en redes sociales influencian tu posici\u00f3n en la <a href=\"https:\/\/sitechecker.pro\/es\/serp\/\">b\u00fasqueda de resultados<\/a>. Tambi\u00e9n debemos destacar que estas Spiders no rastrean constantemente cada p\u00e1gina. Por lo tanto, las estrategias de contenido constante son muy importantes, tal y como el contenido \u00fanico y de valor atrae la atenci\u00f3n de los bots.<\/p>\n<p>&nbsp;<\/p>\n<h3>Archivos Robots.txt son lo primero que los robots de Google escanean para tener un mapa de rastreo del sitio<\/h3>\n<p>Esto significa que si una p\u00e1gina tiene marcada como \u201cNo permitido\u201d este archivo, los robots no podr\u00e1n escanearla ni indexarla.<\/p>\n<p>&nbsp;<\/p>\n<h3>XML Sitemap es una gu\u00eda para los Googlebots<\/h3>\n<p><a href=\"https:\/\/sitechecker.pro\/es\/xml-sitemap\/\">XML Sitemap<\/a> ayuda a los robots a encontrar que lugar de los sitios web debe ser rastreado e indexado. Como puede haber diferencias en la estructura u organizaci\u00f3n de un sitio web este proceso no es automatizado. Un buen Sitemap puede ayudar a las p\u00e1ginas con un ranking bajo, pocos backlinks y contenido inservible, ya que esto ayuda a Google con las im\u00e1genes, videos, noticias, entre otros.<\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"6strategies\">6 estrategias acerca de c\u00f3mo optimizar tu sitio web para el rastreo (crawling) de Googlebot<\/h2>\n<p>&nbsp;<\/p>\n<p>Tal y como ya has entendido, las mejoras hechas a Google Spider deben darse antes que cualquier paso en SEO. As\u00ed pues, ahora consideraremos lo que deber\u00edas hacer para facilitar el proceso de indexaci\u00f3n para los Google bots.<\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"notoverdo\">Exagerar no es bueno<\/h3>\n<p>De seguro sabes que los Googlesbots no pueden escanear varios marcos de escritura. Tales como Flash, JavaScript, DHTML y el archiconocido HTML. Por otro lado, Google no ha aclarado si Googlebot puede rastrear Ajaz y JavaScript, as\u00ed que es mejor no usarlos al momento de crear tu sitio web.<br \/>\nAunque Matt Cutts dice que JavaScript puede ser abierto por las Spiders, tales declaraciones del Webmaster de Google pueden ser refutadas por esto: \u201cSi elementos como las cookies, en marcos como Flash y JavaScript, no pueden ser vistos en el visualizador de textos, entonces el sitio web no podr\u00e1 ser rastreado. Ante mis ojos, no se debe abusar de JavaScript.<\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"robotsunderestimating\">No subestimar los archivos robots.txt<\/h3>\n<p>\u00bfAlguna vez has pensado en el prop\u00f3sito de los archivos <a href=\"https:\/\/sitechecker.pro\/es\/robots-tester\/\">robots.txt<\/a>? Es un archivo muy com\u00fan utilizado en las estrategias SEO, \u00bfpero es realmente \u00fatil? Primero que nada, este archivo es una directriz para todos los crawlers, para lograr que los robots de Google inviertan algo de \u201ccrawl budget\u201d en tu sitio web. Segundo, t\u00fa mismo debes indicar que archivos den escanear los robots, por lo que si alg\u00fan archivo no puede ser rastreado, puedes indicarlo en tu robots.txt. \u00bfPara qu\u00e9 hacer esto? Si hay alguna p\u00e1gina que no debe ser rastreada, el robot vera esto y pasar\u00e1 a escanear una parte de tu sitio que sea m\u00e1s importante. No obstante, mi sugerencia es no bloquear lo que no debe ser bloqueado. Si no indicas que algo no debe ser rastreado, el bot rastrear\u00e1 e indexar\u00e1 todo por defecto. La funci\u00f3n principal del archivo robots.txt es indicarle al robot a donde no debe ir.<\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"uniquecontent\">El contenido y de valor realmente importa<\/h3>\n<p>La regla es que el contenido que es rastreado constantemente, recibe m\u00e1s tr\u00e1fico como resultado. A pesar de que el rango de una p\u00e1gina determina los rastreos frecuentes, este puede hacerse a un lado cuando se trata de utilidad y frescura en p\u00e1ginas con un rango similar. Por lo tanto, tu objetivo principal es que las p\u00e1ginas con un ranking bajo sean escaneadas con m\u00e1s frecuencia. AJ Kohn dijo una vez: \u201cEres un ganador si has transformado una p\u00e1gina con una posici\u00f3n baja en el raking, en una de esas que son escaneadas m\u00e1s a menudo que las de la competencia.\u201d<\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"scroll\">Obteniendo desplazamientos m\u00e1gicos en la p\u00e1gina<\/h3>\n<p>Si tu sitio contiene una cantidad interminable de \u201cscroll pages\u201d (desplazamientos), eso no significa que no tienes posibilidades de optimizarlo para Googlebot. No obstante, debe asegurarte que este tipo de sitios web cumplan con los requerimientos de Google.<\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"internallinks\">Debes comenzar a usar links internos<\/h3>\n<p>Esto es muy importante si deseas hacer m\u00e1s sencillo el proceso de escaneo de los Googlebots. Si tus enlaces est\u00e1n \u201capretados\u201d y son consolidados, el proceso de escaneo ser\u00e1 mucho m\u00e1s efectivo. Si deseas un an\u00e1lisis de los hiperv\u00ednculos internos de tu sitio web, puedes hacerlo con las herramientas Webmaster de Google, entonces ve a la secci\u00f3n de \u201cSearch Traffic\u201d y all\u00ed seleccionas \u201cEnlaces Internos\u201d. Si las p\u00e1ginas web est\u00e1n al tope de la lista, entonces estas tienen contenido \u00fatil.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/internal-link-in-google-search-console.jpg\" alt=\"Google bots for internal linking\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"sitemapvital\">Sitemap.xml es vital<\/h3>\n<p>El Sitemap ofrece directrices para el Googlebot acerca de la manera en la cual escanear un sitio web; es algo tan sencillo como un mapa. \u00bfEntonces par que usarlo? Muchos sitios web no son f\u00e1ciles de escanear, estas dificultades hacen que el proceso de rastreo o crawling sea m\u00e1s complicado. Es por eso que las secciones de un sitio web pueden confundir a los Google Spiders, pero el archivo Sitemap asegura que todo el sitio web sea rastreado.<\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"analyzebot\">\u00bfC\u00f3mo analizar la actividad de Googlebot?<\/h2>\n<p>&nbsp;<\/p>\n<p>Si deseas ver la actividad que ejecuta Googlebot en tu espacio, utiliza las herramientas de Google. Incluso, aconsejamos revisar los datos proporcionados de manera periodica, ya que estos muestran problemas comunes ocurridos en el proceso de rastreo. S\u00f3lo mira la secci\u00f3n de \u201cCrawl\u201d en la herramienta de Webmaster.<\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"crawlingerrors\">Errores comunes de rastreo<\/h3>\n<p>Puedes chequear si tu sitio web enfrenta alg\u00fan tipo de problema durante el proceso de escaneo. Por lo tanto, no tendr\u00e1s problemas con el estatus de la p\u00e1gina o alguna bandera roja (por ejemplo, una p\u00e1gina que sea mandada al \u00faltimo lugar de la indexaci\u00f3n). Ese es el primer paso que debes dar cuando hablamos de una optimizaci\u00f3n de Googlebot. Algunos sitios web pueden tener problemas menores en el escaneo, pero eso no significa que esto influenciar\u00e1 el tr\u00e1fico o el ranking. Sin embargo, con el paso del tiempo estos problemas terminaran con una baja de tr\u00e1fico. Aqu\u00ed puedes encontrar un ejemplo de un sitio como ese:<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/crawl-errors-in-google-webmasters.png\" alt=\"Common crawl errors\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"sitemaps\">Sitemaps<\/h3>\n<p>Puedes usar esta funci\u00f3n si deseas trabajar en tu Sitemap: examinar, a\u00f1adir o saber que contenido est\u00e1 siendo indexado.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/sitemap-screen.png\" alt=\"What is Google bot and how does it work with sitemap\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"fetching\">Atracci\u00f3n<\/h3>\n<p>La secci\u00f3n \u201cFetch as Google\u201d te ayuda a ver tu sitio o pagina de la manera en la que la ve Google.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/fetch-as-google.png\" alt=\"Fetch as Google function\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"crawlstats\">Estad\u00edsticas de crawling (rastreo)<\/h3>\n<p>Google tambi\u00e9n puede decirte cuanta data ha procesado un Google Spider en un d\u00eda. Por lo que si publicas contenido nuevo contantemente, tendr\u00e1s resultados positivos en las estad\u00edsticas.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/crawl-stats-from-site-crawlers.png\" alt=\"Google Search Console screen with crawl stats\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"urlparameters\">Los par\u00e1metros URL<\/h3>\n<p>Esta secci\u00f3n puede ayudarte a descubrir la manera en la que Google indexa tu sitio web usando <a href=\"https:\/\/sitechecker.pro\/es\/what-is-url\/\">par\u00e1metros URL<\/a>. Sin embargo, a modo de default, todas las p\u00e1ginas son indexadas seg\u00fan la decisi\u00f3n de las ara\u00f1as.<\/p>\n<p>&nbsp;<\/p>\n<p><div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/url-parameters.png\" alt=\"Url parameters in GWT\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div><\/p>","protected":false},"excerpt":{"rendered":"Es probable que ya conozcas el SEO y sus buenas pr\u00e1cticas: el valor de la estructura de un sitio web, las reglas para etiquetar, keyword stuffing, el valor del contenido \u00fanico y otras tantas cosas a poner en pr\u00e1ctica. Si es as\u00ed, entonces de seguro ya has o\u00eddo hablar de Google bots. Sin embargo, \u00bfqu\u00e9&#8230;","protected":false},"author":11474150,"featured_media":3425,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"pages-templates\/pages-v2.php","meta":[],"categories":[31],"tags":[],"_links":{"self":[{"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/pages\/795"}],"collection":[{"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/users\/11474150"}],"replies":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/comments?post=795"}],"version-history":[{"count":70,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/pages\/795\/revisions"}],"predecessor-version":[{"id":33853,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/pages\/795\/revisions\/33853"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/media\/3425"}],"wp:attachment":[{"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/media?parent=795"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/categories?post=795"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sitechecker.pro\/es\/wp-json\/wp\/v2\/tags?post=795"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}