zurück zum Glossar

Robots.txt

Was ist die Robots.txt?

Die Robots.txt ist eine Textdatei im Stammverzeichnis einer Website (z. B. davidkeiser.de/robots.txt), die Suchmaschinen-Crawlern Anweisungen gibt, welche Bereiche der Website gecrawlt werden dürfen und welche nicht. Sie ist Teil des Robots Exclusion Protocol und wird von allen großen Suchmaschinen wie Google, Bing und DuckDuckGo respektiert. Die Robots.txt ist ein grundlegendes Werkzeug der technischen Suchmaschinenoptimierung und beeinflusst, wie effizient Suchmaschinen eine Website erfassen.

Aufbau und Syntax

Die Robots.txt folgt einer einfachen Syntax: User-agent definiert, für welchen Crawler die Regel gilt (* steht für alle), Disallow blockiert bestimmte Pfade, Allow erlaubt Ausnahmen innerhalb blockierter Bereiche, und Sitemap verweist auf die XML-Sitemap. Wichtige Regeln: Die Datei muss exakt robots.txt heißen und im Root-Verzeichnis liegen. Groß-/Kleinschreibung der Pfade wird beachtet. Ein leeres Disallow erlaubt alles, ein Disallow: / blockiert die gesamte Website. Die Robots.txt ist kein Sicherheitsmechanismus – sie blockiert nur Crawler, nicht den direkten Zugriff.

Häufige Fehler und Best Practices

Die häufigsten Robots.txt-Fehler: versehentliches Blockieren wichtiger Seiten oder Ressourcen (CSS, JS), was die Indexierung und das Rendering verhindert; Blockierung der gesamten Website nach einem Relaunch (vergessene Disallow: / aus der Staging-Umgebung); fehlender Verweis auf die Sitemap; und inkonsistente Regeln, die sich gegenseitig aufheben. Best Practice: nur wirklich irrelevante Bereiche blockieren (Admin-Bereich, interne Suchseiten, Duplicate-Content-Quellen), alle für SEO relevanten Seiten offen lassen und die Robots.txt regelmäßig über die Google Search Console prüfen.

Relevanz für Webdesign und digitales Marketing

Die Robots.txt ist ein oft unterschätztes SEO-Werkzeug. Falsch konfiguriert, kann sie das Crawl-Budget verschwenden oder wichtige Seiten von der Indexierung ausschließen – beides fatal für die Sichtbarkeit. Bei einem Website-Relaunch muss die Robots.txt als erstes geprüft werden, zusammen mit 301-Weiterleitungen. Im Kontext von KI-SEO gewinnt die Robots.txt neue Bedeutung: Manche Website-Betreiber nutzen sie, um KI-Crawler (wie GPTBot oder ClaudeBot) zu steuern. Webanalyse-Tools und technische SEO-Audits identifizieren Robots.txt-Probleme automatisch und geben Handlungsempfehlungen.

Deine Robots.txt könnte deine Rankings sabotieren, ohne dass du es merkst. Ich prüfe deine technische SEO-Konfiguration und optimiere sie. Jetzt kostenlos beraten lassen →

Autor

David Keiser

David Keiser bringt über 10 Jahre Erfahrung im Webdesign und der Suchmaschinenoptimierung mit und gilt als ausgewiesener Experte aus Recklinghausen.

Rückruf vereinbaren

Wir melden uns innerhalb von 24 Stunden zurück.

Trage dich in das Kontaktformular ein und wir melden uns, innerhalb von 24 Stunden bei dir.

Der Rückruf ist kostenlos und du erhälst keine Werbung.

Du hast ein spannendes Projekt? Lass uns darüber sprechen.

Schicke uns einfach eine unverbindliche Anfrage und wir melden uns innerhalb von 24 Stunden zurück.
100% unverbindlich & persönlich.