System sucht schwarze Löcher im Internet

Dieses Thema im Forum "Netzwelt" wurde erstellt von die_zarte, 15. April 2008 .

  1. 15. April 2008
    Wenn E-Mails ihren Empfänger nicht erreichen oder eine aufgerufene Webseite nicht lädt, wird die Schuld dafür zumeist in Netzwerk- und Serverproblemen gesucht. Einer aktuellen Untersuchung von Forschern der Universität Washington Homepage | University of Washington in Seattle zufolge sind die Gründe für das Verschwinden digitaler Informationen im Netz aber weitaus mysteriöser. Sie vermuten "schwarze Löcher der Information" im Internet. Diese entstehen dann, wenn zwar eine Verbindung zwischen zwei Computern besteht, aber trotzdem Daten auf dem Weg von einem Rechner zum anderen verloren gehen. Um diese Schwachstellen des weltweiten Webs ausfindig zu machen und aufzuzeigen, hat das Forscherteam ein spezielles Kontrollsystem namens Hubble http://hubble.cs.washington.edu entwickelt, das die Wege von verschwundenen Mails und fehlgeschlagenen Seitenanfragen nachvollziehbar macht. Laut Angaben der Forscher konnte auf diese Weise nachgewiesen werden, dass während einer dreiwöchigen Testphase im September 2007 rund sieben Prozent der Computer weltweit mindestens einmal von einer solchen Störung betroffen gewesen sind. Insgesamt ortete das System seitdem knapp 900.000 solcher schwarzen Löcher im Internet.

    "Es ist eine weit verbreitete Annahme, dass man durch eine funktionierende Internetverbindung Zugang zum gesamten Web hat", erklärt Ethan Katz-Bassett, Doktoratstudent im Fachbereich Computerwissenschaft und erster Autor der Studie. "Unser Projekt zeigt, dass das nicht der Fall ist", stellt Katz-Bassett fest. Über das tatsächlich gefundene Ausmaß der Störungsanfälligkeit des World Wide Web sei der Forscher aber selbst erstaunt gewesen. "Als wir mit dem aktuellen Projekt gestartet sind, haben wir bestimmt nicht damit gerechnet, derartig viele Probleme vorzufinden. Die Ergebnisse der Untersuchung waren auch für uns eine Überraschung", meint Katz-Bassett. Endgültige Ergebnisse ihrer von der National Science Foundation geförderten Studie werde das Forscherteam auf dem "Usenix Symposium for Networked Design and Implementation" Home | USENIX in San Francisco der Öffentlichkeit präsentieren.

    "Dass manche Nachrichten, die über das Internet verschickt werden, im digitalen Nirwana landen, ist kein neues Problem", betont Matthias Bärwolf, wissenschaftlicher Mitarbeiter im Fachbereich Informatik und Gesellschaft der TU Berlin TU Berlin: Technische Universität Berlin, auf Anfrage von pressetext. Derartige schwarze Löcher der Information seien eine direkte Konsequenz der Architektur des Internets. "Das Internet ist ein Netzwerk von Netzwerken und als solches kein System, wo alles von vornherein genau vorgegeben ist", erläutert Bärwolf. Es gebe heute tatsächlich kaum Orte im weltweiten Netz, die eine vollständige Kontrolle erlauben würden. "Das Internet ist zudem als verteiltes System konzipiert, das keine starre hierarchische Ordnung kennt", ergänzt Bärwolf. Welchen Pfad eine versendete Information im Web einschlägt, werde oft erst im Netzwerk selbst bestimmt. "Ich glaube aber nicht, dass diese schwarzen Löcher vom Ausmaß her ein besonders dramatisches Problem darstellen", so Bärwolf.

    Um ein möglichst genaues Bild von den schwarzen Löchern im Internet zu bekommen, haben die Forscher mit Hubble ein eigenes Kontrollsystem entwickelt. Dieses besteht aus 100 Computern in 40 Ländern der Welt, die alle 15 Minuten Traceroutes aussenden und so den Internetverkehr überprüfen. Bekommt Hubble keine Antwort, untersucht das System die Störung genauer. Die Ergebnisse werden anschließend als Liste auf der Webseite des Projekts sowie auf einer alle 15 Minuten aktualisierten Karte in Google Maps geografisch dargestellt. In der Liste erscheinen ein Teil der IP-Adresse, der Ort der Störung, die Erreichbarkeit und die Dauer des schwarzen Lochs. Jeder der gelisteten Markierungen auf der Landkarte steht dabei für mehrere Hundert oder sogar mehrere Tausend Einzelrechner. Laut eigenen Angaben sind die Forscher somit in der Lage, insgesamt rund 85 Prozent aller Erreichbarkeitsprobleme im Internet aufdecken zu können.

    quelle: pressetext.de
     
  2. 15. April 2008
    AW: System sucht schwarze Löcher im Internet

    Find ich voll krass, bin mal gespann wie diese Forschungen weitergehen und wie die sich weiterentwickeln^^
     
  3. 15. April 2008
    AW: System sucht schwarze Löcher im Internet

    hehe schon krass bin echt gespannt bin zwar
    noch nich sowelchen löchern begegnet aber villeicht
    hab ichs auch nich gemerkt xD

    mfg
     
  4. 15. April 2008
    AW: System sucht schwarze Löcher im Internet

    boah krass data loss <.< da geht mir doch glatt einer ab..

    ja mein gott, is doch bekannt das daten halt mal verloren gehen. das einzig interessnate is der titel und mit schwarzen löchern hats ja numa gor nischt zu tun!
    naja.. nichts wirklich neues...
     
  5. 15. April 2008
    AW: System sucht schwarze Löcher im Internet

    Sehr strange. Schwarze Löcher in Netzwerken? Klingt zu komisch um wahr zu sein.
    Trotzdem ne interessante sache, hoffentlich gibts bald neue Infos dazu.
     
  6. 16. April 2008
    AW: System sucht schwarze Löcher im Internet

    glaub ich irgendwie nicht, das es soviel ist... also dasses so verlust mal gibt shcon aber naja die zahl scheint mir en bissle aus der luft gegriffen zu sein
     
  7. 16. April 2008
    AW: System sucht schwarze Löcher im Internet

    Hmrpf daher kommt es also wenn ich im Board lese "Server nicht gefunden!" Oo die Schwarzen Löcher sind schuld! Ich wussts doch *grml*... verdammte schwarze Löcher.

    Kann die mal jemand stopfen?

    B2T:
    Krass Oo !
     
  8. 16. April 2008
    AW: System sucht schwarze Löcher im Internet

    Naja und für sowas werden die Forscher bezahlt? Dass das Internet eine langsam immer ältere und damit veraltete Einrichtung wird, ist ja wohl fast jedem klar.
    Dass dabei störende Server und Fehler in schlecht abgeschirmten/gebrochenen Netzwerkkabeln liegen, ist auch klar. (und dass dabei das immer verzweigtere Web keinen Vorteil bringt, wird auch jedem ersichtlich....)

    Würde eher mal versuchen, neue Wege zu finden, das Internet wieder kompakter werden zu lassen und nicht weiter aufzublasen.

    ps. Wobei es sicherlich gut ist, wenn die Wissenschaftler an Wegen arbeiten, wie man die Störungen und Fehler im Netz finden kann.

    LG Shareef
     
  9. Video Script

    Videos zum Themenbereich

    * gefundene Videos auf YouTube, anhand der Überschrift.