Hallo zusammen,
der X-Robots-Tag ist ein HTTP-Header, mit dem Website-Betreiber steuern können, wie Suchmaschinen bestimmte Inhalte indexieren oder crawlen dürfen. Im Gegensatz zum klassischen Meta-Robots-Tag, der im HTML-Code einer Seite eingebunden wird, kann der X-Robots-Tag auch für nicht-HTML-Ressourcen wie PDFs, Bilder oder Videos eingesetzt werden. Dadurch bietet er mehr Flexibilität, wenn es darum geht, gezielt bestimmte Dateien von der Indexierung auszuschließen oder spezielle Anweisungen zu geben.
Typische Einsatzmöglichkeiten sind zum Beispiel, Suchmaschinen anzuweisen, eine Datei nicht zu indexieren (noindex), keine Links daraus zu verfolgen (nofollow) oder eine Ressource erst nach einem bestimmten Datum zu indexieren. Auch die Kombination mehrerer Anweisungen ist möglich. Für die Umsetzung wird der X-Robots-Tag im HTTP-Header der Serverantwort gesetzt, was häufig über Serverkonfigurationen wie .htaccess oder spezielle CMS-Plugins geschieht.
Der Einsatz sollte gut geplant werden, da falsche Einstellungen dazu führen können, dass wichtige Inhalte aus dem Suchindex verschwinden. Wer den X-Robots-Tag gezielt nutzt, kann damit die Kontrolle über die Indexierung und Sichtbarkeit einzelner Inhalte deutlich verbessern.
Eine ausführliche Erklärung mit Beispielen zur praktischen Anwendung findet ihr hier:
https://d4.pro/seo-glossar/x-robots-tag/Viele Grüße