Links
am 09.01.2012 - 15:47 Uhr in
Hallo!
Frage. Wenn ich z.B. online eine Sitemap erstellen lasse, dann sind da auch Links wie
http://www.abc.com/node/1
http://www.abc.com/user/login?destination=node/5%23comment-form
http://www.abc.com/tracker?order=title&sort=asc
http://www.abc.com/top-rated-percent?order=value&sort=asc
http://www.abc.com/taxonomy/term/79
Etc.
Wie kann ich das verhindern? Danke!
- Anmelden oder Registrieren um Kommentare zu schreiben

Es gibt ein Modul
am 09.01.2012 - 17:47 Uhr
Es gibt ein Modul http://drupal.org/project/site_map, damit kannst du eine Sitemap erstellen, die sich dynamisch an das Menü anpaßt.
Dort kann man auch Taxonomie ausdrücklich nicht berücksichtigen und natürlich auch ganze Menüs ausschließen.
Und das Ganze kann man dann auch noch schick stylen (siehe: http://www.drupalcenter.de/node/38585)
viele Grüße
Berthold Lausch
Ja, vielen Dank, genau auf
am 10.01.2012 - 02:33 Uhr
Ja, vielen Dank, genau auf das Video bin ich heute gestossen. Das Modul kenne ich natürlich. Da war eine "schöne" Sitemap das Thema.
Hier gehts mir um de eigentlichen Links. Also für die Bots, Google etc.
Die Links sollen garnicht gespidert werden.
Schau mal die Module
am 10.01.2012 - 07:56 Uhr
path, path_auto und ähnliches an.
Einfach mal in der Modulsuche das Stichwort path eingeben.
mod_rewrite muss natürlich auf dem Server aktiviert sein.
Google davon abhalten
am 10.01.2012 - 12:40 Uhr
Google davon abhalten verlinkte Inhalte zu speichern... das wird schwierig.
Du kannst versuchen, die Dinge in der robots.txt einzutragen, damit die Bots ausgesperrt sind, aber meine Meinung nach spidert Google alle nur irgendwie erdenklichen verlinkten Inhalte.
Was kann ein Grund dafür sein, dass es nicht gewünscht ist, diese Links zu spidern ?
Grüße
Berthold
Google speichert mitnichten
am 10.01.2012 - 14:47 Uhr
Google speichert mitnichten alle verlinkten Inhalte. Man sollte als Webmaster im Gegenteil darauf achten, dass nur relevante Links im Index landen. Links die zu doppeltem Content führen (einfaches Beispiel: Link zur Startseite über www.domain.de und über www.domain.de/startseite.html), verschlechtern das Google-Ranking.
Links, denen Google nicht folgen soll, schließt man mit "rel=nofollow" aus (siehe https://de.wikipedia.org/wiki/Nofollow). Seiten, die nicht indiziert werden sollen kann man mit einem Meta-Tag vor gängigen Suchbots "schützen" (siehe https://en.wikipedia.org/wiki/Noindex )
Noindex, nofollow und auch
am 10.01.2012 - 15:06 Uhr
Noindex, nofollow und auch robots.txt funktionieren leider nicht so, wie man sich das vorstellt.
Ich habe selbst Verzeichnisse in der Robots.txt für Bots ausgesperrt, aber trotzdem sind die Dinger im index drin.
Das wird auch im Netz viel diskutiert, z.B. hier
Aus meiner Sicht sind diese Dinge nur Placebos.
Wir dürfen ja nicht vergessen. Google ausschließliches Interesse ist das Datensammeln um den Besucher geeigente Werbung und gute Suchergebnisse anzuzeigen.
Da werden die sich sicherlich nicht durch so ein paar Einträge hier und da von ihrem Weg abbringen lassen.
viele Grüße
Berthold
Google hat aber auch ein
am 10.01.2012 - 15:55 Uhr
Google hat aber auch ein Interesse daran, seine Suchergebnisse möglichst gut zu erhalten und allein schon deswegen glaube ich, dass sie gewisse Regeln aufstellen, an die sich Webmaster zu halten haben und an die sich Google bezgl. der Suchergebnisse auch selbst hält (ob sie die Seiten dennoch speichern steht auf einem anderen Blatt und das ist auch nicht unwahrscheinlich, aber hier geht es ja um die angezeigten Suchergebnisse).
Wenn man es "richtig" macht (was immer das bei SEO auch heißt), kann man schon beeinflussen, was in den Suchergebnissen auftaucht und was nicht.
Richtig ist aber auch: Alles, was mal im Index ist, ist nur sehr schwer wieder rauszubekommen, daher kann deine Aussage durchaus richtig sein, dass immer noch alte Seiten im Index zu finden sind. Ein nachträgliches Ändern der robots.txt oder setzen von nofollow oder noindex bereinigt nicht den Suchindex. Deshalb sollte man sich gleich zu Anfang eines Webprojekts darüber Gedanken machen und nicht erst, wenn die Seite schon live ist. Dann ist es zu spät.
Hallo! Also ich habe ja die
am 11.01.2012 - 13:28 Uhr
Hallo!
Also ich habe ja die friendly URLs. Wieso werden dann die Links mit node/* überhaupt gespidert?
Oder diese URLs: http://www.abc.com/user/login?destination=node/5%23comment-form?
Zitat: Wieso werden dann die
am 11.01.2012 - 13:36 Uhr
Wieso werden dann die Links mit node/* überhaupt gespidert?
Weil Drupal intern mit den URLs node/### arbeitet. Du kannst Dir aber das Modul Global Redirect installieren, dann werden die URLs vom Typ node/### nicht mehr gezeigt, wenn ein Alias dafür existiert sondern immer der Alias. Damit ist Dein Problem aus der Welt, denn dann findet Google die falschen URLs nicht mehr.
Beste Grüße
Werner
Ja, ok, ich weiss, dass
am 11.01.2012 - 13:43 Uhr
Ja, ok, ich weiss, dass intern die URLs node/* sind.
Global redirect hatte ich einmal kurz installiert, da hatte ich aber irgendwas mit zuvielen Redirects und ganz komische URLs.
Da habe ich es schnell wieder deinstalliert.
Aber grundsätzlich: DAS ist das Modul, bei dem ich richtig bin?
Ja, aber nimm die Version
am 11.01.2012 - 15:08 Uhr
Ja, aber nimm die Version 1.3! Die 1.4 tut es nicht, wie Du Dich noch richtig erinnerst.
Beste Grüße
Werner