zurück zum Glossar

Robots.txt

Mit robots.txt können z.B. Admin-Bereiche, Staging-Umgebungen oder unwichtige Seiten vom Crawling ausgeschlossen werden. Wichtig: robots.txt verhindert das Crawling, aber nicht zwingend die Indexierung – dafür wird ein noindex-Tag benötigt. Fehler in der robots.txt können dazu führen, dass wichtige Seiten nicht indexiert werden.

Autor

David Keiser

David Keiser bringt über 10 Jahre Erfahrung im Webdesign und der Suchmaschinenoptimierung mit und gilt als ausgewiesener Experte aus Recklinghausen.

Sie haben ein spannendes Projekt? Lassen Sie uns darüber sprechen.

Schicken Sie uns einfach eine unverbindliche Anfrage und wir melden uns innerhalb von 24 Stunden zurück.
100% unverbindlich & persönlich.