Vraag:
Ik kreeg van de week een mail van Google Search Console met de melding dat er een aantal pagina’s niet geïndexeerd konden worden.
Verbaasd dat ik was ben ik ingelogd op Google Search Console om te zien om welke URLs het ging. Een heleboel URLs waren zoekpagina URLs zoals onderstaande.
https://www.timdehoog.nl/?s=wordpress
Deze, plus een heleboel andere standaard URLs, heb ik sinds van de week via robots.txt geblokkeerd.
Maar ik vroeg me wel af of dit vanuit SEO optiek juist is?
Antwoord:
Mijn gevoel zegt dat deze URLs niet in de Google index opgenomen hoeven te worden. Er zal ook niet iemand zo snel zoeken in Google naar een zoekresultaten pagina.
Toch twijfel ik en besluit ik de vraag neer te leggen bij Tommy van TNT Marketing waarmee ik overdag vaak samenwerk. Hij vind het een goede vraag maar weet het antwoord niet. Hij stuurt mijn vraag door naar zijn collega Lars die bij TNT Marketing de SEO expert is.
Zijn antwoord is:
Nee, zoekpagina URL’s hoeven niet opgenomen te worden in de index van Google. Het heeft geen toegevoegde waarde. De content verandert op deze URL’s ook redelijk snel omdat er nieuwe content gepubliceerd wordt. Hierdoor kan je ook niet scoren met een specifiek zoekwoord.
Duidelijk antwoord dus. Mijn stap om deze URL’s te blokkeren is dus juist.
Bekijk mijn robots.txt voor inspiratie. Ik heb namelijk ook de bots van OpenAI ChatGPT en Google Bard geblokkeerd zodat zij mijn website niet meer mogen indexeren.