Robots.txt is een tekstbestand op de root van een website dat instructies bevat voor zoekmachine crawlers. Deze instructies vertellen de crawlers welke pagina’s van de website wel of niet geïndexeerd moeten worden. Het doel van robots.txt is om de toegang van zoekmachines tot specifieke pagina’s te beperken, zodat bepaalde pagina’s niet worden weergegeven in zoekresultaten of niet worden geïndexeerd. Het is een belangrijk instrument voor website-eigenaren die controle willen hebben over welke pagina’s wel en niet door zoekmachines worden gecrawld. Het kan bijvoorbeeld worden gebruikt om duplicaat content of privépagina’s te voorkomen.

 

Meer te weten komen?
Kom in contact met onze experts

Dit veld is verborgen bij het bekijken van het formulier
Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.