robots.txt ausschliesen der index.php
Wollte mit der robots.txt alle index.php?articel... ausschliesen.
User-agent: *
Disallow: /index.php
Disallow: /index.php*
leider werden die index.php trotzdem von google erkannt. Jetzt hab ich viele doppelte Metabeschreibungen. Was kann ich tun ??
User-agent: *
Disallow: /index.php
Disallow: /index.php*
leider werden die index.php trotzdem von google erkannt. Jetzt hab ich viele doppelte Metabeschreibungen. Was kann ich tun ??
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 94222
Url: https://administrator.de/contentid/94222
Ausgedruckt am: 22.11.2024 um 20:11 Uhr
2 Kommentare
Neuester Kommentar
Hallo,
ich glaube da liegst du etwas falsch. Die gängingen Suchmaschinen, gerade Google, sind in der Lage zu erkennen ob es sich bei der Seite um einen Dateinamen handelt, welcher bereits indiziert ist. Auch die Tatsache, dass du über eine Datei mit unterschiedlichen Parametern deinen Inhalt differenzierst wird erkannt und intelligent behandelt.
Habe ich das Problem soweit richtig verstanden?
Für weitere nützliche Tipps und Tricks zum Thema SEO und SEM kann ich dir folgende Seite empfehlen:
Internetmarketing-News
Beste Grüße,
Markus
ich glaube da liegst du etwas falsch. Die gängingen Suchmaschinen, gerade Google, sind in der Lage zu erkennen ob es sich bei der Seite um einen Dateinamen handelt, welcher bereits indiziert ist. Auch die Tatsache, dass du über eine Datei mit unterschiedlichen Parametern deinen Inhalt differenzierst wird erkannt und intelligent behandelt.
Habe ich das Problem soweit richtig verstanden?
Für weitere nützliche Tipps und Tricks zum Thema SEO und SEM kann ich dir folgende Seite empfehlen:
Internetmarketing-News
Beste Grüße,
Markus
Hm.. wenn ich das richtig sehe, dann verbietest Du wenn Du es so schreibst, allen Suma's den Zugriff auf deine Index.php.. das möchtest du glaube ich nicht..
Du solltest bedenken, dass Artikel = Content sind. Somit willst du wahrscheinlich auch nicht, dass Du den Content durch die robots.txt blockst.
die wahrscheinlich eleganteste wären dynamische Metatags.
Du baust dir einfach eine sql abfrage und fängst den Dateinamen aus der URL ab. Dann die die Abfrage an die DB --> gib mir die Metas von dem eintrag wo die Seite bla.html heisst.
Wenn das aus irgendeinem grund nicht möglich sein sollte, dann wäre eine zweite gute möglichkeit ein sog. mod_rewrite in die .htaccess zu schreiben. dann könntest du die URL umschreiben lassen und beispielsweise artikel.html blocken anstatt der Index .
Am besten wäre es aber mit Sicherheit sich erstmal die zahlreichen Hilfen unter Google zum thema robots.txt anzuschauen : http://www.google.de/search?hl=de&q=robots.txt&meta=
Du solltest bedenken, dass Artikel = Content sind. Somit willst du wahrscheinlich auch nicht, dass Du den Content durch die robots.txt blockst.
die wahrscheinlich eleganteste wären dynamische Metatags.
Du baust dir einfach eine sql abfrage und fängst den Dateinamen aus der URL ab. Dann die die Abfrage an die DB --> gib mir die Metas von dem eintrag wo die Seite bla.html heisst.
Wenn das aus irgendeinem grund nicht möglich sein sollte, dann wäre eine zweite gute möglichkeit ein sog. mod_rewrite in die .htaccess zu schreiben. dann könntest du die URL umschreiben lassen und beispielsweise artikel.html blocken anstatt der Index .
Am besten wäre es aber mit Sicherheit sich erstmal die zahlreichen Hilfen unter Google zum thema robots.txt anzuschauen : http://www.google.de/search?hl=de&q=robots.txt&meta=