MyBB.de Forum

Normale Version: Seiten mithilfe einer "robots.txt"-Datei blockieren oder entfernen
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Eine "robots.txt"-Datei schränkt den Zugriff auf Ihre Website für Suchmaschinenrobots ein, die das Web crawlen. Robots sind automatisierte Systeme, die vor dem Zugriff auf die Seiten einer Website prüfen, ob der Zugriff auf bestimmte Seiten möglicherweise durch die Datei "robots.txt" gesperrt ist.

Meine Frage, gibt es ein Plugin was die Erstellung einer .txt ersetzt oder anderweitige Möglichkeiten?

Wenn ich meine Site in google eingebe, stehen ca. 10 Domains untereinander, kontakt, impressum usw. Will nur einen Eintrag und zwar beziehend auf die Hauptseite gelistet haben.

Gruß

NetHunter

Ein Plugin ist mir nicht bekannt. Ist aber auch nicht nötig. Eine robots.txt ist schnell angelegt. Siehe auch hier.
Beim Google SEO Plugin ist eine Beispiel robots.txt Datei dabei die du an deine Bedürfnisse anpassen kannst.

Zitat:Will nur einen Eintrag und zwar beziehend auf die Hauptseite gelistet haben.

Normalerweise willst du so viel Inhalt wie möglich (alle Threads usw.) in Google haben, da du sonst schlichtweg nicht gefunden wirst. Du solltest also nur vorsichtig blockieren. Impressum, Kontakt ist OK wenn du das nicht bei Google haben willst, nur wenn du alle Inhalte blockierst schadest du dir selbst.