robots.txt ausschliesen der index.php
Wollte mit der robots.txt alle index.php?articel... ausschliesen.
User-agent: *
Disallow: /index.php
Disallow: /index.php*
leider werden die index.php trotzdem von google erkannt. Jetzt hab ich viele doppelte Metabeschreibungen. Was kann ich tun ??
User-agent: *
Disallow: /index.php
Disallow: /index.php*
leider werden die index.php trotzdem von google erkannt. Jetzt hab ich viele doppelte Metabeschreibungen. Was kann ich tun ??
Please also mark the comments that contributed to the solution of the article
Content-Key: 94222
Url: https://administrator.de/contentid/94222
Printed on: April 17, 2024 at 23:04 o'clock
2 Comments
Latest comment
Hallo,
ich glaube da liegst du etwas falsch. Die gängingen Suchmaschinen, gerade Google, sind in der Lage zu erkennen ob es sich bei der Seite um einen Dateinamen handelt, welcher bereits indiziert ist. Auch die Tatsache, dass du über eine Datei mit unterschiedlichen Parametern deinen Inhalt differenzierst wird erkannt und intelligent behandelt.
Habe ich das Problem soweit richtig verstanden?
Für weitere nützliche Tipps und Tricks zum Thema SEO und SEM kann ich dir folgende Seite empfehlen:
Internetmarketing-News
Beste Grüße,
Markus
ich glaube da liegst du etwas falsch. Die gängingen Suchmaschinen, gerade Google, sind in der Lage zu erkennen ob es sich bei der Seite um einen Dateinamen handelt, welcher bereits indiziert ist. Auch die Tatsache, dass du über eine Datei mit unterschiedlichen Parametern deinen Inhalt differenzierst wird erkannt und intelligent behandelt.
Habe ich das Problem soweit richtig verstanden?
Für weitere nützliche Tipps und Tricks zum Thema SEO und SEM kann ich dir folgende Seite empfehlen:
Internetmarketing-News
Beste Grüße,
Markus
Hm.. wenn ich das richtig sehe, dann verbietest Du wenn Du es so schreibst, allen Suma's den Zugriff auf deine Index.php.. das möchtest du glaube ich nicht..
Du solltest bedenken, dass Artikel = Content sind. Somit willst du wahrscheinlich auch nicht, dass Du den Content durch die robots.txt blockst.
die wahrscheinlich eleganteste wären dynamische Metatags.
Du baust dir einfach eine sql abfrage und fängst den Dateinamen aus der URL ab. Dann die die Abfrage an die DB --> gib mir die Metas von dem eintrag wo die Seite bla.html heisst.
Wenn das aus irgendeinem grund nicht möglich sein sollte, dann wäre eine zweite gute möglichkeit ein sog. mod_rewrite in die .htaccess zu schreiben. dann könntest du die URL umschreiben lassen und beispielsweise artikel.html blocken anstatt der Index .
Am besten wäre es aber mit Sicherheit sich erstmal die zahlreichen Hilfen unter Google zum thema robots.txt anzuschauen : http://www.google.de/search?hl=de&q=robots.txt&meta=
Du solltest bedenken, dass Artikel = Content sind. Somit willst du wahrscheinlich auch nicht, dass Du den Content durch die robots.txt blockst.
die wahrscheinlich eleganteste wären dynamische Metatags.
Du baust dir einfach eine sql abfrage und fängst den Dateinamen aus der URL ab. Dann die die Abfrage an die DB --> gib mir die Metas von dem eintrag wo die Seite bla.html heisst.
Wenn das aus irgendeinem grund nicht möglich sein sollte, dann wäre eine zweite gute möglichkeit ein sog. mod_rewrite in die .htaccess zu schreiben. dann könntest du die URL umschreiben lassen und beispielsweise artikel.html blocken anstatt der Index .
Am besten wäre es aber mit Sicherheit sich erstmal die zahlreichen Hilfen unter Google zum thema robots.txt anzuschauen : http://www.google.de/search?hl=de&q=robots.txt&meta=