Neue Regeln für die Entwicklung von Robotern

Dieses Thema im Forum "Netzwelt" wurde erstellt von zwa3hnn, 30. Dezember 2008 .

Schlagworte:
  1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen
  1. #1 30. Dezember 2008
    Neue Regeln für die Entwicklung von Robotern
    CCC-Mitglied Frank Rieger will einen TÜV für Roboter etablieren
    Asimovs Robotergesetze aus dem Jahr 1942 gelten als nicht mehr zeitgemäß. Frank Rieger vom Chaos Computer Club (CCC) möchte deshalb ein bewährtes Modell auf die Robotik übertragen: Er fordert einen Überwachungsverein für Robotiker nach dem Vorbild der Dampfkessel-Überwachungs-und Revisions-Vereine aus dem 19. Jahrhundert.


    Der Science-Fiction-Autor Isaac Asimov stellte in der Kurzgeschichte Runaround aus dem Jahr 1942 drei Gesetze für Roboter auf. Roboter, so die erste und oberste Forderung Asimovs, dürfen Menschen keinen Schaden zufügen oder zulassen, dass Mensche zu Schaden kommen. Außerdem sollen sie Anweisungen Folge leisten und sich selbst schützen - vorausgesetzt, diese beiden Gesetze verstoßen nicht gegen das erste.

    Diese Forderungen seien jedoch überholt, erklärte CCC-Mitglied Frank Rieger beim 25. Chaos Communication Congress (25c3). Längst hat sich das Militär der Robotertechnik angenommen und setzt erste, wenn auch noch ferngesteuerte Kampfroboter ein - was britische Friedensaktivisten zu der Forderung nach Ächtung autonomer Kampfroboter veranlasst hat.

    Gefahr droht jedoch nicht nur von Maschinengewehren, die auf einem Roboter montiert sind. Software sei im allgemeinen fehlerbehaftet und heutzutage so komplex, dass nicht vorhersehbar sei, was sie tue. Das aber werfe, so Rieger, die Frage auf, wer für Schäden, die durch die Fehlfunktion eines Roboters entstehen, verantwortlich sei: der Besitzer oder Betreiber des Roboters, der ihn einsetzt, der Administrator, der ihn wartet, der Hersteller, der ihn gebaut hat, oder der Programmierer, der die Steuerungssoftware geschrieben hat?

    Erschwert werde die Klärung der Verantwortlichkeit zusätzlich durch die Tatsache, dass die Technik dem Mensch zunehmend Entscheidungen abnimmt. Gelte etwa für Kampfroboter noch, dass allein der Mensch die Waffen abfeuern darf, werden in Kampfflugzeugen schon die Waffencomputer in die Entscheidung einbezogen, indem sie von sich aus Ziele markieren, die der Pilot ins Visier nehmen kann. Denkbar sei schließlich, dass autonome Systeme am Ende ihre Entscheidungen selbst fällen, ohne dass der Mensch noch die Möglichkeit zum Eingreifen habe.

    Richtet ein Roboter oder ein autonomes System Schaden an, so sollte dieser ausgeglichen werden können. Roboter sollten deshalb, forderte Rieger, eine Kennzeichnung vergleichbar dem Nummernschild eines Autos tragen. So könne zumindest der Besitzer festgestellt werden, dessen Versicherung dann für den Schaden aufkomme. Allerdings, so schränkte Rieger ein, sei die Versicherung von Robotern ein sehr heikles Thema: Werde Versicherbarkeit zum Kriterium für die Roboterentwicklung, dann werden nicht mehr die Funktionen der Systeme oder der Erfindergeist der Robotiker, sondern die Schadenstabellen der Versichungsunternehmen den Markt für Roboter bestimmen.

    Rieger schlägt als Gegenmodell deshalb eine Selbstkontrolle für die Robotik vor - vergleichbar dem TÜV. Dessen Anfänge lagen im 19. Jahrhundert in unabhängigen regionalen Überwachungsorganisationen, die von Dampfkesselbesitzern gegründet wurden. Ziel war es, Dampfmaschinen sicherer zu machen, indem die Technik grundlegende Richtlinien für die Maschinen festlegten. Das Modell dieser Dampfkessel-Überwachungs-und Revisions-Vereine (DÜV), aus denen später der TÜV hervorgegangen ist, möchte das CCC-Mitglied gern auf die Robotik übertragen.

    Das bedeutet, dass sich die Robotiker gegenseitig unterstützen und überwachen sollen. Wie einst die Dampfmaschinenbetreiber sollen sich 200 Jahre später die Roboterbauer zusammen tun: Jeder soll, so die Idee, seine Entwicklungen Kollegen zur Untersuchung vorlegen. Gleichzeitig stellt er sich als Prüfer für andere zur Verfügung.

    Die Prüfungen sollen sich dabei nicht auf die Untersuchung des Prototypen beschränken. Nach jeder Änderung und Erweiterung, durch die der Roboter die Möglichkeit bekommt, Menschen oder Dinge zu schädigen, solle er erneut einer Prüfung unterzogen werden. Dabei solle unter anderem geklärt werden, welche Fehlfunktionen auftreten können und welchen Schaden der Roboter überhaupt anrichten kann. Sollte es dennoch zu einem Unfall kommen, sei zudem dessen Analyse unerlässlich, um daraus lernen zu können. Diese Regeln seien vielleicht nicht perfekt, resümierte Rieger, aber sie stellten zumindest ein Anfang dar.


    quelle: Golem.de
     

  2. Anzeige
    Dealz: stark reduzierte Angebote finden.
  3. #2 30. Dezember 2008
    AW: Neue Regeln für die Entwicklung von Robotern

    Da muss ich leider sagen, dass die Gesetze, bis sich Roboter durchgesetzt haben, um jegliches ändern werden! Heute kann noch kein Mensch voraussagen, wann es soweit ist, dass man sagen kann, dass fast jedes Haushalt einen Roboter hat. Ich glaube nicht, dass sich Roboter so schnell durchsetzten werden, wie Computer, da sie wesentlich gefährlicher sind.
    Die Programmierung ist auch noch nicht perfekt, somit dauert es wohl noch ca. 10-20 Jahre, bis es soweit ist. Bis dahin hat sich noch mal alles geändert. Ich wette es wird später auch ein Grundrecht für Roboter, sowie Cyborgs geben. Aber bis es soweit ist, muss die Bio-Technik, als auch Robotik wesentlich zunehmen!
     
  4. #3 30. Dezember 2008
    AW: Neue Regeln für die Entwicklung von Robotern

    Hmm....der erste Abschnitt erinnert mich an etwas ^^:
    Aber wie schon gesagt, ist es meiner Meinung nach auch noch etwas Zeit, bis Roboter bzw die KI soweit entwickelt ist, dass man einen TÜV ( spezielle Richtlinen) für Roboter einführen müsste, wobei so etwas wie ein "Nummernschild" nicht die schlechteste Idee wäre, wenn es dann mal soweit ist.
    Jedoch lieber zu früh, als zu spät ^^.
     
  5. #4 30. Dezember 2008
    AW: Neue Regeln für die Entwicklung von Robotern

    Ist ne gute Sache , wie bereits gesagt lieber zu früh als zu spät.
    Trotzdem glaube ich ,das wir dieses Zeitalter nicht mehr miterleben werden :] .

    Roberter mit ner echten KI , ne ne das dauert noch.


    Obwohl mir der Gedanke gefällt nen Sklaven zu haben der mir die Bude auf fordermann bringt.
     
  6. #5 30. Dezember 2008
    AW: Neue Regeln für die Entwicklung von Robotern

    ja bin ich auch der meinung. wir werden vermutlich noch ein paar sachen sehen aber roboter mit echter KI nene. das dauert noch ^^
    eigentlich schade. fand irobot eigentlich ganz gut :D
     
  7. #6 31. Dezember 2008
    AW: Neue Regeln für die Entwicklung von Robotern



    Dito ^^

    Hab ich auch sofort gedacht als ich das mit dem "keinen Schaden zufügen" gelesen hab xD

    Naja wie dem auch sei müssten sie erst mal vernünftige Roboter bauen, und dann auch richtig und keine Deathbots die alles zerstören >,<
    Wäre dann nich so gut wenn sone Roboter wie in I Robot ne Stadt einnehmen.
     
  8. #7 31. Dezember 2008
    AW: Neue Regeln für die Entwicklung von Robotern

    Das euch das an I-Robot erinnert liegt daran, dass die 3 Gesetze aus I-Robot die von Asimov aufgestellten Gesetze sind.
     
  9. #8 4. Januar 2009
    AW: Neue Regeln für die Entwicklung von Robotern

    Die Regeln müssen angepasst werden nachher eskaliert es echt noch wie bei I-Robot :D
     
  10. #9 4. Januar 2009
    AW: Neue Regeln für die Entwicklung von Robotern

    Bei I Robot und Terminator war das mit der Eskalation ja jeweils der fall, weil sich die KI über bestehende Regeln hinweggesetzt hat, da sie sich selbst bewusst wurde und dann wie ein Mensch vor der Wahl stand, sich an Regeln zu halten oder nicht... (alles unter der Prämisse, eine logische, "richtige" Entscheidung zu treffen)

    So lange dies ausgeschlossen ist, bzw ausschließbar ist, sehe ich keinen Grund, die bestehenden Asimov-Gesetze zu ändern.
     

  11. Videos zum Thema
Die Seite wird geladen...
Similar Threads - Neue Regeln Entwicklung
  1. Antworten:
    2
    Aufrufe:
    2.353
  2. Antworten:
    19
    Aufrufe:
    4.434
  3. Antworten:
    16
    Aufrufe:
    2.466
  4. Antworten:
    8
    Aufrufe:
    434
  5. Antworten:
    4
    Aufrufe:
    321
  • Annonce

  • Annonce