De:Recht

Aus YaCyWiki
Wechseln zu: Navigation, Suche

Rechtliche Fragen beim Betrieb eines YaCy-Peers

Warning.png Die hier gemachten rechtlichen Äußerungen stellen in keinster Weise eine Rechtsberatung dar, sondern ausschliesslich die Meinung der jeweiligen Autoren. Ist doch rechtlicher Beistand nötig, so wende dich bitte an einen Rechtsanwalt deines Vertrauens. Das YaCy-Team kann hier nur allgemeine Hinweise geben.

Ein YaCy-Peer bietet im Internet aktiv einen Service an. Dabei greift er auch auf die Dienste anderer Peers zurück und bietet selbst seine Dienste diesen an. So werden z.B. bei der Suche Ergebnisse anderer Peers mit aufgeführt und über das sogenannte "Remote Crawling" Webseiten gemeinschaftlich indiziert. Dabei kann es unter Umständen zu rechtlichen Problemen kommen, wenn illegale Inhalte berührt werden.

Im Zuge unseres offenen Umgangs mit allen Sicherheitsinformationen soll diese Seite über potentielle Gefahren aufklären. Bisher ist noch keiner der erwähnten Fälle eingetreten.

Mögliche Probleme

  • Crawlen von illegalen Seiten
  • Illegale Seiten in den Suchergebnissen

Crawling

Beim Crawling verzweigt der YaCy-Bot von einer Seite zur nächsten, um möglichst alle Seiten zu erfassen.

Gefahr

Der Crawler gerät auf eine illegale Seite und hinterlässt dort im Logbuch des Servers die IP-Adresse des Peers. Im Zuge von Ermittlungen wird der Server mit der illegalen Seite sichergestellt und im Logbuch findet sich nun die IP-Adresse deines Peers.

Mögliche Konsequenzen

Hausdurchsuchung und Beschlagnahmung von Datenträgern und Computern für unbestimmte Zeit. Anschließend die Auswertung der sichergestellten Datenträger und Computer.

Da sich auf dem beschlagnahmten Computer keine Hinweise für das Surfen auf der illegalen Seite finden lassen (z.B. Prüfung des Browser-Cache), wird er vermutlich nach der Durchsuchung problemlos zurückgegeben und keine weitere Anklage erhoben (ähnlicher Fall eines Tor-Routers verlief so<ref>Citation needed</ref>).

Gegenbeweise

  • Keine Surfspuren z.B. im Browser-Cache
  • Im Logbuch des Servers ist ein Bot und keine Browser als User-Agent vermerkt.
  • Es erfolgte ein Zugriff auf die robots.txt im Rahmen des Crawling, was eher typisches Verhalten von Bots und nicht Benutzern von Browsern ist.

Gegenmaßnahmen

  • Wenn man selbst in der Queue eine illegale URL entdeckt, die URL löschen und in die Blacklist aufnehmen.
  • Kein eigenständiges Crawlen und auch keine Remote-Crawls annehmen.

Suchergebnisse

In den Suchergebnissen könnten illegale Webseitem auftauchen.

Gefahr

Jemand findet eine illegale Webseite in den Ergbenissen deines Peers und meldet es den Behörden.

Mögliche Konsequenzen

Sperrverfügung für den Peer-Besitzer

Abhilfe

  • Kommt es zu einer Sperrverfügung, wird diese mit Hilfe der Blacklist und des IndexCleaner befolgen.

Gegenmaßnahmen

  • Die Suchseite wird für unangemeldete Benutzer gesperrt.