{"id":795,"date":"2023-12-07T12:41:26","date_gmt":"2023-12-07T12:41:26","guid":{"rendered":"https:\/\/sitechecker.pro\/?page_id=795"},"modified":"2024-10-10T09:50:17","modified_gmt":"2024-10-10T09:50:17","slug":"google-bot","status":"publish","type":"page","link":"https:\/\/sitechecker.pro\/nl\/google-bot\/","title":{"rendered":"Googlebot Optimization: Ontdek 6 Strategie\u00ebn om jouw website beter te optimaliseren"},"content":{"rendered":"<p>Waarschijnlijk ben je op de hoogte van SEO en hoe dit het best ingezet kan worden: de waarde van de structuur van de website, de regels bij het gebruik van tags, zoekwoorden gebruiken, de waarde van unieke content optimalisatie en misschien heb je zelfs gehoord van de Google bots. Maar wat weet je van de Google bots eigenlijk?<br \/>\nDit fenomeen gaat verder dan de bekende SEO optimalisatie, omdat het op een volledig ander level plaatsheeft. Als SEO optimalisatie gaat over het optimaliseren van een tekst voor zoekmachine aanvragen, dan is de Google bot een proces van websiteoptimalisatie voor de Google spiders. Deze processen hebben gelijkende onderdelen, maar laat ons eerst het verschil uitleggen omdat dit veel te maken heeft met jouw website. Hier gaat het om hoe goed jouw website gecrawld kan worden, wat het belangrijkste onderdeel is wanneer het gaat om de vindbaarheid van een website.<\/p>\n<p>&nbsp;<\/p>\n<h2>Inhoudsopgave<\/h2>\n<p>&nbsp;<\/p>\n<ul>\n<li><a href=\"#whatis\">Wat is Googlebot?<\/a><\/li>\n<li><a href=\"#6strategies\">6 strategie\u00ebn om jouw website te optimaliseren voor crawling door Googlebot<\/a>\n<ul>\n<li><a href=\"#notoverdo\">Overdaad is niet goed<\/a><\/li>\n<li><a href=\"#robotsunderestmating\">Onderschat de robots.txt file niet<\/a><\/li>\n<li><a href=\"#uniquecontent\">Beruikbare en unieke content doet er echt toe<\/a><\/li>\n<li><a href=\"#scroll\">Magische scroll pagina\u2019s verkrijgen<\/a><\/li>\n<li><a href=\"#internallinks\">Je kunt beginnen met interne links<\/a><\/li>\n<li><a href=\"#sitemapvital\">Sitemap.xml is vitaal<\/a><\/li>\n<\/ul>\n<\/li>\n<li><a href=\"#analyzebot\">Hoe analyseer je de activiteit van Googlebot?<\/a>\n<ul>\n<li><a href=\"#crawlingerrors\">Veel voorkomende crawling errors<\/a><\/li>\n<li><a href=\"#sitemaps\">Sitemaps<\/a><\/li>\n<li><a href=\"#fetching\">Ophalen<\/a><\/li>\n<li><a href=\"#crawlstats\">Crawling statistieken<\/a><\/li>\n<li><a href=\"#urlparameters\">De parameters van een URL<\/a><\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<h2 id=\"whatis\">Wat is Googlebot?<\/h2>\n<p>&nbsp;<\/p>\n<p>Website crawlers of Google bots zijn robots die een webpagina bekijken en een index cre\u00ebren. Wanneer een webpagina de bot toegang verleent, dan voegt de bot de pagina aan de index toe, zodat deze toegankelijk wordt voor gebruikers. Wanneer je wilt weten hoe dit proces verloopt, klik dan hier. Wil je weten hoe het proces van Googlebot optimalisatie verloopt, dan moet je eerst weten hoe een Google spider een website scant. Hier zijn de vier stappen:<\/p>\n<p>&nbsp;<\/p>\n<h3>Heeft een webpagina een hogere page ranking level, dan besteedt de Google Spider meer tijd aan het crawlen.<\/h3>\n<p>Hier gaat het om \u2018Crawl budget\u2019, wat de exacte tijd is die door web robots gebruikt wordt bij het scannen van een bepaalde website: heeft de pagina een hogere autoriteit, dan wordt er meer budget besteedt.<\/p>\n<p>&nbsp;<\/p>\n<h3>Google robots crawlen een website constant<\/h3>\n<p>Dit is wat Google hierover zegt: \u2018Google robot hoeft niet vaker toegang te hebben tot een website dan eens per seconde.\u2019 Dat betekent dat de website onder constant toezicht van de web spiders staat wanneer zij toegang nodig hebben. De SEO-managers van vandaag hebben het over de crawl ratio en proberen de optimale manier te vinden voor website crawling om zo op een hoger leven te komen. We kunnen dit zien als een verkeerde interpretatie van de crawl ratio, aangezien dit niets meer is dan de snelheid van de aanroepen van de Google robot, in plaats van constante herhaling. Je kunt de ratio zelf bijstellen door Webmaster Tools te gebruiken. Een groot aantal backlinks die kunnen worden gecontroleerd met de <a href=\"https:\/\/sitechecker.pro\/nl\/backlinks-checker\/\">backlink checker<\/a>, unieke inhoud en sociale activiteit be\u00efnvloeden uw positie in de zoekresultaten.\u00a0Hier moet ik bij vermelden dat de web spiders niet alle pagina\u2019s constant scannen, daarom zijn constante content strategie\u00ebn rond unieke en bruikbare content belangrijk, want die trekken de aandacht van de bot.<\/p>\n<p>&nbsp;<\/p>\n<h3>Robots.txt file is het eerste dat de Google robots scannen om zo een wegbeschrijving te krijgen voor het crawlen van de website<\/h3>\n<p>Dit betekent dat een pagina die in deze file ontoegankelijk genoemd wordt, niet meegenomen kan worden door de robots voor het scannen en indexeren.<\/p>\n<p>&nbsp;<\/p>\n<h3>XML sitemap is een gids voor Google bots<\/h3>\n<p><a href=\"https:\/\/sitechecker.pro\/nl\/xml-sitemap\/\">XML-sitemap<\/a> helpt de bot om te bekijken welke plaatsen op de website gecrawld en ge\u00efndexeerd moeten worden, want aangezien er verschillen kunnen zijn tussen de structuur en organisatie van de website, kan dit niet automatisch gedaan worden. Een goede sitemap helpt de pagina\u2019s met een lager ranking level, weinig backlinks en waardeloze inhoud, en helpt Google ook om afbeeldingen, nieuws en video\u2019s beter te herkennen.<\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"6strategies\">6 strategie\u00ebn om jouw website te optimaliseren voor crawling<\/h2>\n<p>&nbsp;<\/p>\n<p>Zoals je begrijpt, moet optimalisatie voor de Google spiders gedaan worden voordat er stappen gezet worden in zoekmachineoptimalisatie. Laten we daarom eens kijken naar wat je moet doen om de Google bots te helpen bij het indexeren.<\/p>\n<h3 id=\"notoverdo\">Overdaad is niet goed<\/h3>\n<p>Weet je dat Googlebots verschillende frames niet kunnen scannen, zoals Flash, JavaScript, DHTML net als HTML? Daarnaast is er nog steeds geen opheldering of de Googlebot Ajax en JavaScript kan crawlen en daarom is het beter om deze niet te gebruiken wanneer je een website opzet. Hoewel Matt Cutts stelt dat JavaScript geopend kan worden voor web spiders, laat de Google Webmasters Handleiding iets anders zien:\u2019 Wanneer elementen zoals cookies, verschillende frames, Flash of JavaScript niet gezien kunnen worden in een tekstbrowser, dan is het mogelijk dat de web spiders de pagina niet kunnen crawlen.\u2019 Daarom is overmatig gebruik van JavaScript niet verstandig.<\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"robotsunderestimating\">Onderschat de robots.txt file niet<\/h3>\n<p>Heb je ooit stilgestaan bij het nut van de <a href=\"https:\/\/sitechecker.pro\/nl\/robots-tester\/\">robots.txt<\/a> file? Het is een file die vaak gebruikt wordt bij het opzetten van een SEO strategie, maar is het echt wel handig? Allereerst, deze file is een directief voor alle web spiders, de Google robot spendeert het crawl budget op alle website van jouw website. Daarnaast bepaal je zelf wat de bots kunnen scannen, dus wanneer je niet wilt dat een bepaalde site meegenomen wordt, geef je dit aan in de robots.txt file. Waarom zou je dit doen?<br \/>\nGoogle ziet op deze manier direct dat bepaalde pagina\u2019s niet meegenomen moeten worden en scant het deel van de website dat wel belangrijk is voor jou. Mijn advies is echter om niet af te blokken wat niet afgeblokt moet worden. Wanneer je niet aangeeft dat iets niet gecrawld oet worden, crawlt de bot dit en wordt het in de index opgenomen. Het nut van de robots.txt file is dus aangeven waar je niet wilt dat de bot aan het werk gaat.<\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"uniquecontent\">Bruikbare en unieke content is echt belangrijk<\/h3>\n<p>De regel is dat content die vaak gecrawld wordt, meer bezoekers zal generen. Ondanks het feit dat PageRank de frequentie van het crawlen bepaalt, kan het opzij geschoven worden wanneer het gaat om bruikbaarheid en versheid van de pagina\u2019s die dezelfde PageRank hebben. Jouw doel is dus om de pagina\u2019s die minder goed ranken, vaker gescand te krijgen. AJ Kohn zei ooit: \u2018Je bent een winnaar wanneer jouw lager gerankte pagina\u2019s veranderd zijn in pagina\u2019s die meer gescand worden dan die van de concurrent.\u2019<\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"scroll\">Magische scroll pagina\u2019s verkrijgen<\/h3>\n<p>Wanneer jouw website pagina\u2019sheeft waarop je eindeloos moet scrollen, dan betekent dit niet dat je geen kansen hebt bij Googlebot optimalisatie. Je moet er alleen voor zorgen dat deze webpagina\u2019s in overeenstemming zijn met de handleiding van Google.<\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"internallinks\">Je kunt beginnen met interne links<\/h3>\n<p>Dit is erg belangrijk wanneer je het proces van het scannen makkelijker wilt maken voor de Googlebots. Wanneer jouw links schoon zijn en duidelijk, dan is het proces van het scannen een stuk makkelijker. Wil je een analyse hebben van jouw <a href=\"https:\/\/sitechecker.pro\/nl\/internal-links\/\">interne hyperlinks<\/a>, dan kun je dit gewoon doen in de Google Webmaster Tool, dan Search Traffic en kies vervolgens Internal Links. Wanneer de webpagina\u2019s hoog in de lijst staan, bevatten deze veel waardevolle content.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/internal-link-in-google-search-console.jpg\" alt=\"Google bots for internal linking\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"sitemapvital\">Sitemap.xml is vitaal<\/h3>\n<p>De sitemap geeft de richting aan voor de Googlebot bij het openen van een website: het is een simpele kaart die gevolgd kan worden. Waarom wordt het gebruikt? Veel websites vandaag de dag zijn niet gemakkelijk te scannen, en deze moeilijkheden kunnen het proces van crawlen erg ingewikkeld maken. Daarom worden de secties van de website die verwarrend kunnen zijn opgenomen in een sitemap, zodat je zeker weet dat alle gebieden van de website gecrawld worden.<\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"analyzebot\">Hoe analyseer je de activiteit van de Googlebot?<\/h2>\n<p>&nbsp;<\/p>\n<p>Wil je weten wat de Googlebot op jouw wbesite gedaan heeft, dan kun je Google Webmaster Tools gebruiken. Ik adviseer je om deze data regelmatig te controleren, omdat je de fouten kunt zien die tegengekomen zijn bij crawling. Check de \u2018Crawl\u2019 sectie in de Webmaster Tools.<\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"crawlingerrors\">Veel voorkomende crawling errors<\/h3>\n<p>Je kunt zien wanneer jouw website problemen getoond heeft tijdens het proces van het scannen. Je kunt geen statusproblemen hebben, of rode vlaggen die aangeven dat een pagina problemen heeft aan de hand van de laatste index. De eerste stap die je moet zetten wanneer het om Googlebot optimalisatie gaat. Sommige website hebben kleine scanfouten, maar dat betekent niet dat dit invloed heeft op verkeer of ranking. Maar wanneer de tijd verstrijkt, kunnen deze problemen alsnog zorgen voor terugloop in het verkeer. Hier vind je een voorbeeld van zo\u2019n website:<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/crawl-errors-in-google-webmasters.png\" alt=\"Common crawl errors\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"sitemaps\">Sitemaps<\/h3>\n<p>Deze functie kun je gebruiken wanneer je met je sitemap wilt werken: inspecteer, voeg toe of ontdek welke content ge\u00efndexeerd wordt.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/sitemap-screen.png\" alt=\"What is Google bot and how does it work with sitemap\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"fetching\">Fetching<\/h3>\n<p>De sectie \u201cFetch as Google\u201d helpt je om jouw website of pagina te zien zoals Google deze ziet.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/fetch-as-google.png\" alt=\"Fetch as Google function\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"crawlstats\">Crawling statistieken<\/h3>\n<p>Google kan je ook vertellen hoeveel data een web spider per dag verwerkt. Dus, plaats je verse content op een regelmatige basis, dan heb je positieve resultaten in deze statistieken.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/crawl-stats-from-site-crawlers.png\" alt=\"Google Search Console screen with crawl stats\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p>&nbsp;<\/p>\n<h3 id=\"urlparameters\">De parameters van de URL<\/h3>\n<p>Deze sectie helpt je om te ontdekken hoe Google crawlt en indexeert, door <a href=\"https:\/\/sitechecker.pro\/nl\/what-is-url\/\">URL-parameters<\/a> te gebruiken. Normaal gesproken worden alle pagina gecrawld aan de hand van de beslissingen van de web spiders:<\/p>\n<p>&nbsp;<\/p>\n<div class=\"content__img-wrap\"><img src=\"https:\/\/sitechecker.pro\/wp-content\/uploads\/2017\/12\/url-parameters.png\" alt=\"Url parameters in GWT\" class=\"description-img description-img-zoom\" loading=\"lazy\" ><\/div>\n<p id=\"check\">\n<p><\/p>","protected":false},"excerpt":{"rendered":"Waarschijnlijk ben je op de hoogte van SEO en hoe dit het best ingezet kan worden: de waarde van de structuur van de website, de regels bij het gebruik van tags, zoekwoorden gebruiken, de waarde van unieke content optimalisatie en misschien heb je zelfs gehoord van de Google bots. Maar wat weet je van de&#8230;","protected":false},"author":11474150,"featured_media":3425,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"pages-templates\/pages-v2.php","meta":[],"categories":[31],"tags":[],"_links":{"self":[{"href":"https:\/\/sitechecker.pro\/nl\/wp-json\/wp\/v2\/pages\/795"}],"collection":[{"href":"https:\/\/sitechecker.pro\/nl\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/sitechecker.pro\/nl\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/nl\/wp-json\/wp\/v2\/users\/11474150"}],"replies":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/nl\/wp-json\/wp\/v2\/comments?post=795"}],"version-history":[{"count":72,"href":"https:\/\/sitechecker.pro\/nl\/wp-json\/wp\/v2\/pages\/795\/revisions"}],"predecessor-version":[{"id":33853,"href":"https:\/\/sitechecker.pro\/nl\/wp-json\/wp\/v2\/pages\/795\/revisions\/33853"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sitechecker.pro\/nl\/wp-json\/wp\/v2\/media\/3425"}],"wp:attachment":[{"href":"https:\/\/sitechecker.pro\/nl\/wp-json\/wp\/v2\/media?parent=795"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sitechecker.pro\/nl\/wp-json\/wp\/v2\/categories?post=795"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sitechecker.pro\/nl\/wp-json\/wp\/v2\/tags?post=795"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}