[GastForen Web allgemein Kampf gegen Spam und Terror im Internet <a href="mailto: und robot.txt

  • Suche
  • Hilfe
  • Lesezeichen
  • Benutzerliste
Themen
Beiträge
Moderatoren
Letzter Beitrag
r a c
Beiträge gesamt: 955

31. Mär 2003, 14:08
Beitrag # 1 von 8
Bewertung:
(5100 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo,

ich maskiere meine e-mail adresse mit <a href="&#109;&#97;&#105;&#108;&#116;&#111;&#58;und-so-weiter
also das "mailto" auch.

Nun sehe ich im error-log, dass ab und an die Datei /& angefragt wird.

Ich möchte jetzt aber nicht, die guten Spider (wie Google) ins Leere laufen lassen und habe mir folgende robots.txt überlegt:

# robots.txt
User-agent: *
Disallow: /&

Wird diese robots.txt von spidern richtig verstanden?
Schafft das Zeichen "&" vielleicht Probleme?

Grüsse
r a c

(Dieser Beitrag wurde von r a c am 31. Mär 2003, 14:12 geändert)
X
Buzzbomb
Beiträge gesamt: 1268

31. Mär 2003, 15:49
Beitrag # 2 von 8
Beitrag ID: #29904
Bewertung:
(5100 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
hi,
dieses "&" ist doch nur in der verschlüsselten adresse vorhanden,worüber machst du dir dann sorgen,ob der spider nun mit "mailto" oder "&" nichts anfangen kann ist doch egal,er wird beides nich weiterverfolgen oder indexieren.

mfg
--------------------------
http://www.buzzbomb.de
http://www.logo-style.de
http://www.spamming-warfare.de


als Antwort auf: [#29891]
r a c
Beiträge gesamt: 955

31. Mär 2003, 18:01
Beitrag # 3 von 8
Beitrag ID: #29931
Bewertung:
(5100 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
die bösen spider sind mir an dieser Stelle egal.die finden keine e-mail adresse und das ist gut so.

die guten machen mir Sorgen. Ich möchte nicht, dass eine liebe Suchmaschine, die meine Links verfolgt, irrtümlich /& sucht und dann ein 404 Not Found zurückbekommt.



als Antwort auf: [#29891]
Buzzbomb
Beiträge gesamt: 1268

31. Mär 2003, 19:31
Beitrag # 4 von 8
Beitrag ID: #29940
Bewertung:
(5100 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
hi,
wie gesagt,wenn er nichts findet wird er auch nichts indexieren,deswegen wird er aber nicht deine komplette seite kicken,keine bange ;)

mfg
--------------------------
http://www.buzzbomb.de
http://www.logo-style.de
http://www.spamming-warfare.de


als Antwort auf: [#29891]
r a c
Beiträge gesamt: 955

31. Mär 2003, 21:04
Beitrag # 5 von 8
Beitrag ID: #29948
Bewertung:
(5100 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Trozdem ist es sicher besser 404 zu vermeiden.

wenn also "Disallow: /&" funktioniert, wäre das gut.

wenn aber das "&" nicht verstanden wird, oder noch schlimmer, als "Disallow: /" interpretiert wird (in letzdem Falle flöge ich tatsächlich aus dem Index), dann is nicht so gut.

ich möchte in diesem Fall also keinen Fehler machen.



als Antwort auf: [#29891]
Miro Dietiker
Beiträge gesamt: 699

31. Mär 2003, 23:10
Beitrag # 6 von 8
Beitrag ID: #29955
Bewertung:
(5100 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
hi rac!

Es macht durchaus sinn, auf der Site so wenig "tote links" wie möglich
auf einer site zu haben... Eine "gute" suchmaschine wertet nämlich
tote Links negativ auf das Ranking :) resp. :(

Über die Theorie, was mit dem /& passiert wage ich mich nicht etwas
auszusagen... Ich empfehle jedoch dies anstatt mit unicode mit JS
in das Dokument dynamisch zu schreiben (write()) denn dies können
Suchmaschinen noch weniger unterstützen!!

Ich erwarte, dass die Suchmaschinen früher oder Später das Unicode
auch zu 100% unterstützen, wenn sie's nicht heute schon tun :)

GrEeZ: Miro Dietiker


als Antwort auf: [#29891]
wish
Beiträge gesamt: 47

1. Apr 2003, 10:41
Beitrag # 7 von 8
Beitrag ID: #29996
Bewertung:
(5100 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
morgen

bei der seite wo ich betreue setze ich unicode schon seit langem ein. in der robots habe ich nichts eingegeben ausser einem "gesperrten verzeichnis - welches vollgestopft ist mit fake adressen .-) )"

bei google merke ich keine negativen auswirkungen. auch bei anderen ist mir nichts negatives aufgefallen.

der spam befall hält sich in grenzen, gemäss seiteninhaber. allerdings denke ich das unicode kein langandauernder schutz ist - da die spamer doch ziemlich clever sind.

js verschlüsselung finde ich nicht so gut, es gibt etliche wo js deaktiviert haben... dynamisch js erscheint mir dennoch sinvoll da es nicht statisch in der seite steht.

wish


als Antwort auf: [#29891]
r a c
Beiträge gesamt: 955

1. Apr 2003, 15:49
Beitrag # 8 von 8
Beitrag ID: #30056
Bewertung:
(5100 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Danke allen.

Die robots.txt lass ich wohl besser bleiben. Zu unklar, wie das Zeug interpretiert wird.

Unicode oder JS: bin noch unschlüsssig. Bis anhin wollte ich wichtige Dinge nicht von JavaScribt abhängig machen.

Und ich habe die Logs durchforstet. Ich denke jetzt auch, dass Google Unicode versteht (und deshalb merkt: mailto - also nicht folgen). Es sind wohl nur kleiner (z.B. http://www.search.ch), die sich nach <a href="&#... sofort auf die Suche nach der Datei & machen. Damit kann man leben. Meine Panik war wohl unberechtigt :-)

Grüsse r a c




als Antwort auf: [#29891]
(Dieser Beitrag wurde von r a c am 1. Apr 2003, 15:53 geändert)
X