Startseite Service nutzen Thumbshot Info Seite ausschliessen Backixx Shopsoftware MyEngines
Benutzer

Passwort

Wie kann man die eigenen Seiten ausschliessen?

  

Die Datei "robots.txt" stellt eine Standardmethode bereit, um Robots und Crawler auszuschließen. Robots, Crawler sowie auch der Thumbshot Bot sind Programme oder Scripte welche von Suchmaschinen o.ä. losgeschickt werden und von Seite zu Seite durchs Web navigieren. Dabei werden die gefundenen Seiten indexiert und in den Datenbeständen der Suchmaschinen aufgenommen. Ein Robot sucht nach Links in einer Seite und folgt diesen dann. Somit hat ein Seitenbetreiber keine Kontrolle, welche Wege sich dieser sucht. Genau dafür ist die Datei "robots.txt" zuständig. Fast alle Suchmaschinen-Robots halten sich an die Regeln in der robots.txt und suchen zuerst nach dieser Datei, bevor Sie mit dem Indexieren Ihrer Seiten beginnen. Wenn Sie Dateien in Ihrem Account liegen haben, die nicht für die Öffentlichkeit bestimmt sind oder ganz einfach nicht in Suchmaschinen aufgenommen werden sollen, können Sie diese von der Indexierung ausschliessen.

Die robots.txt ist eine einfache Textdatei, die im Hauptverzeichnis einer Domain abgelegt wird. Sie gibt den Robots an, wo sie suchen und wo sie nicht suchen dürfen. Pro Domain darf nur eine robots.txt vorhanden sein. Alle Buchstaben in der robots.txt müssen klein geschrieben werden.

Der Thumbshot Bot verwendet den User-agent "thumbshots-de-bot". Wenn Sie den " thumbshots-de-bot " komplett aus Ihren Webseiten ausschließen möchten, so dass kein Screenshot Ihrer Seite erstellt wird, dann kopieren Sie folgenden Text und speichern ihn in einer Datei "robots.txt" im Hauptverzeichnis Ihres Webservers ab. Ihre Seiten werden somit nicht und auf Thumbshots.de gelistet.


-------------------------------------------
User-agent: thumbshots-de-bot
Disallow: /

--------------------------------------------
 



All Rights Reserved by Mobile & More
Mobilkommunikation GmbH