robots.txt – Hausordnung für die Suchmaschine

Artikelreihe Suchmaschinen Bei schätzungsweise 120 Milliarden Internetseiten braucht jeder Surfer Hilfe beim Finden der gesuchten Information. Suchmaschinen sind somit der wichstigste Erfolgsfaktor für eine Website.

User-Agent bezeichnet den Spider. Das Sternchen * gilt als Jokerzeichen und bedeutet, dass die folgenden Zeilen für alle Spider gelten. Mit „Disallow“ werden bestimmte Verzeichnisse (Ordner) für die Robots gesperrt. Pro Verzeichnis ist eine Zeile notwendig.

Alle Roboter ausschließen

User-agent: *
Disallow: /

Alle Roboter einladen

Eine leere Datei erfüllt den gleichen Zweck
User-agent: *
Disallow:

Alle Roboter von bestimmten Verzeichnissen fernhalten

User-agent: *
Disallow: /unwichtig/
Disallow: /cgi-local/

Einen bestimmten Robot ausschließen

User-agent: Sidewinder
Disallow: /

Einen bestimmten Robot einladen

User-agent: WebCrawler
Disallow:

Mehrere Dateien ausschließen

# Meine Roboter Info

User-agent: *
Disallow: /diesunddas.html
Disallow: /unddiesehier.html
Disallow: /verbotenr.html

Kommentare fügen Sie so ein:

# Mein Kommentar

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert