Science Fiction kann schneller Realität werden als uns lieb ist. Noch bestimmen Menschen wenn autonome Waffen wie Drohen töten, aber die Entwicklung künstlicher Intelligenz schreitet rasant voran und könnte den Menschen bald ersetzen. Letzte Woche trafen sich Regierungsvertreter bei den Vereinten Nationen um zu diskutieren, ob Staaten diese Killerroboter einsetzen dürfen. Was sind die militärischen und ethischen Aspekte der „tödlichen autonomen Waffensysteme“?
Vollständig autonome Waffensysteme sind noch nicht in Gebrauch. Die Diskussion in Genf ging um Maschinen, die Feinde identifizieren, angreifen und töten können, ohne dass ein Mensch diese Entscheidungen trifft. Wie weit autonome Waffen schon entwickelt sind, sieht man an den defensiven Waffensystemen: So verfügt die Bundeswehr über ein Luftabwehrsystem, das Geschosse ohne menschliche Beteiligung als Ziel erkennt. Noch entscheidet aber ein Soldat über den Abschuss. Künstliche Intelligenz lässt sich für Boote, Flugzeuge und letztendlich auch für Roboter einsetzen. Der Rüstungswettlauf wird es wohl eher früher als später möglich machen, vor allem da die Ressourcen für autonome Waffensysteme verhältnismäßig billig sind.
Jetzt zu den ethischen Fragen! Eine Künstliche Intelligenz kennt keine Empathie oder Reue und kann daher auch keine Verantwortung für ihre Taten übernehmen. Aber dort wo eine autonome Waffe eingesetzt wird, braucht man keinen Soldaten hinschicken. Richtig programmiert neigen sie vielleicht sogar weniger zu Fehlentscheidungen als Menschen in einer Stresssituation. Kenner der Branche sind dennoch alarmiert: So haben mehr als hundert Robotiker, Wissenschaftler und Unternehmer in einem offenen Brief ein Verbot per UN-Waffenkonvention gefordert, unter ihnen sind Prominente wie Elon Musk, Stephen Hawking und Steve Wozniak vertreten – nicht gerade Feinde technischen Fortschritts!
Was sagt ihr zum Thema? Wir sprachen mit Thomas Küchenmeister von Facing Finance, einer deutschen Mitgliedsorganisation der internationalen Kampagne „Killer Roboter stoppen“.
Wir haben einen Kommentar von Phillip erhalten, der glaubt, dass auch in Zukunft ultimativ ein Mensch am Abzug sitzt, selbst wenn Drohnen einen Großteil der Ausführung übernehmen. Bleibt das wirklich so? Worum ging es beim UN-Treffen in Genf letzte Woche?
Das ist ein frommer Wunsch, dass immer ein Mensch die Entscheidung über Leben und Tod in Bezug auf Gewaltanwendung mit Waffensystemen trifft. Aber leider zeigt die Entwicklung von Waffensystemen, dass es auch in die autonome Richtung geht, dass diese Entscheidung an Waffensysteme delegiert wird. Wir sind jetzt in einem Stadium, wo Waffen mit autonomen Fähigkeiten schon vorhanden sind. Die gibt es schon. Sie werden als dumme oder unausgereifte Systeme beschrieben, das macht sie aber nicht weniger gefährlich, im Gegenteil! Aber auch wenn wir komplexere Intelligenz in Waffen einbauen, dann wird diese Technologie trotzdem niemals in der Lage sein, Kontext zu verstehen oder das Kriegsvölkerrecht zu berücksichtigen. Daher würde ich dieser Aussage nicht folgen können. Es sei denn, wir können jetzt ein Verbot durchsetzen. Das strebt unsere Kampagne an.
Unser Leser Aaron ist davon überzeugt, dass man jegliches Feingefühl für Menschenleben verliert, wenn man im Krieg Maschinen statt Menschen einsetzt, da man keine eigenen Verluste tragen muss. Stimmt Herr Küchenmeister ihm zu?
Ja, das sehe ich auch so. Wenn man diese Entscheidung über Leben und Tod an eine Maschine delegiert, dann sinkt automatisch die Hemmschwelle in Bezug auf Gewaltanwendung. So etwas wie Skrupel wird eine Maschine nie haben. Die Maschine wird sich keine Gedanken machen, ob die „Zielperson“ eine Waffe oder eine Schaufel in der Hand hält, sondern sie wird ihren Befehl einfach entsprechend ihrer Vorgaben ausführen.
Thomas fasst die Diskussion mit dem Schlagwort „Terminator“ zusammen. Müssen wir solche Killerroboter im Einsatz bald fürchten oder wie stehen die Chancen für ein Verbot?
Das ist immer das plakativste Beispiel, aber ich finde das nicht so gut. Es geht an der Realität und dem was zurzeit entwickelt wird vorbei. Es geht uns um Waffensysteme mit Sensoren und Algorithmen, die dann abfeuern ohne dass der Mensch eingreifen kann.
Ein Terminator ist eine künstliche hochentwickelte Intelligenz, die eine Mission hat aber selbst entscheidet. So weit sind wir noch nicht. Daher ist es wichtig zu unterscheiden, worum es gerade geht. Es gibt aber noch keine allgemein gültige Definition von vollautonomen Waffen. Die einen sagen, dass es bei der Debatte nur um so einen Terminator geht, aber ich gehöre zu denen, die sagen, dass alle autonome Waffensysteme auf den völkerrechtlichen Prüfstand müssen.
Ob es ein Verbot geben wird, weiß ich nicht. Einige Länder wie Deutschland und Frankreich versuchen ein völkerrechtliches verbindliches Verbot zu verschleppen. Das ist gefährlich, weil die technologische Entwicklung so rasant ist. Diese Zeit dürfen wir uns nicht mehr nehmen, wir müssen jetzt Grenzen setzen. Die technische Verfügbarkeit ist schon gegeben. Viele Wissenschaftler auf der Konferenz in Genf haben bestätigt, dass die Technik längst da ist. Waffenhändler sagen, sie können Waffen autonom einsetzen, sie können alles machen, sie warten nur noch auf das politische „Go“. Da gehen bei mir die Alarmleuchten an.
Sollten Roboter töten dürfen? Sie sind noch nicht im Einsatz, brauchen wir dennoch ein Verbot? Was denkt ihr?
Foto: cc/ Flickr – Peter Ladd
30 Kommentare Schreib einen KommentarKommentare
Die gibt’s doch schon, Drohnen und Co
Nicht ganz. Es geht um darum ob der Roboter selber entscheiden darf, ob und wer getötet werden soll.
Drohnen werden von Menschen gesteuert
Naja , an und für sich gibt dem ja auch jemand den Befehl zum töten … ist nicht so viel anders in meinen Augen …
Da das Bild ja so passend gewählt wurde, würde ich mal sagen, dass Battlestar Galactica uns gezeigt haben sollte, dass Roboter nicht töten dürfen sollten ;)
Stimmt. Selbst die Asimovschen Gesetze würden auf lange Sicht keine Sicherheit gewährleisten können. Wobei natürlich das erste Gesetz der Möglichkeit zu töten schon widersprechen würde.
Lasst die Kriege in sportlichen Wettkampf austragen.
Die Vereinten Nationen haben leider gar keine Kompetenzen, um die Verbreitung wirksam einzugrenzen. Die Diskussion, die Diskussionen wie dieser hier vorausgehen müsste wäre eine, die die Fragw aufwirft, ob es irgendwie möglich ist, die Vereinten Nationen so weit zu reformieren, dass man ihnen wirksamme Sanktionsmöglichkeiten in die Hand gibt, sowie eine Blockade durch einige Wenige verhindert.
Wo bleibt denn da der ganze Spaß?
Cylonen und Terminatoren ebenso wie einige (Kampf)droiden in Star Wars reichen schon an das Bewusstseinsniveau von Menschen, und nach einer weiter gefassten Definition des Menschseins sind sie dadurch Menschen (zu diesen Dilemma ebenso demonstrativ nützlich ist die Neuverfilmung von Robocop). Dass der Artikel demnach einen Cylonen von BSG als Titelbild nutzt und dann sagt, dass es nicht um diese Art von Kampfdroiden geht, ist schon lustig… Wir wissen nicht wirklich, was es alles braucht, um ein Bewusstsein zu simulieren, bis auf die Schätzung dass ein Menschliches Hirn geschätzt 1 THz Rechenleistung bringt, bis zu 100 Petabyte an Speicher haben könnte und das alles mit 20W betreibt. Nach dem Mooreschen Gesetz sollten wir das in 20-30 Jahren hinbekommen, und so einer Entität kann man nicht mehr auf die klassische Art (harte Programmierung) das lügen, töten etc. verbieten weil es jede Handlung rationalisieren kann (sonst würde sich ja jeder an die 10 Gebote halten). Wir können aber auch nicht einfach davon ausgehen, dass diese Maschinen töten wollen, wenn wir es ihnen sagen, denn sie können dann ebenso die Rationalität des Befehlsgebers hinterfragen, was sie für den Kriegseinsatz wiederum bedingt geeignet macht
Den Willen, nicht töten zu wollen, kann man da aber ganz leicht beeinflussen… Funktioniert bei Menschen ja auch… Und gebt einer KI freien Willen, mit der Möglichkeit sich selbst weiter zu entwickeln, kommt dieses „Ding“relativ schnell selbst drauf, dass der Mensch (aus Sicht der Maschine) minderwertig ist und ihm im Weg stehen wird.
Skynet!!
Ich sage nur „Asimov“…
Die Diskussion kommt ca. 15-20 Jahre zu spät. Systeme, die selbstständig über den Waffeneinsatz entscheiden gibt es schon längst in der militärischen Praxis (z.b. AEGIS). Dronen, die eigene Missionen durchführen und dabei Waffen einsetzen können, gibt es auch schon seit Jahren. Aktuell geht es in der Praxis um selbstlernende Waffenträger und das geht sehr stark in die Terminator-Richtung.
Sollten Atomwaffen verboten werden? Jo. Sollte Giftgas verboten werden? Jo. Sollte Krieg verboten werden? Jo. Sollten autonome Killerroboter verboten werden? Jo.
Ich zweifle am realen Gehalt dieser Debatte.
Die Vereinten Nationen sind nutzlos. Ein Spielzeug der USA im ihre angeblichen kriege gegen Terroristen zu legalisieren. Würde der eu bestimmt gut passen dann könnten Roboter ihre kritiker töten.
🤦♂️
Jup, bis sie sich gegen die Menschen auflehnen und dann sind wir entweder bei Terminator oder Battlestar Galactica.
Gewisse Sachen sollten die Menschen selbst in der Hand behalten.
Ja! 1 ungesteuerter Roboter der internationale Gesetze befolgt ist doch geil.
Die UN kann soviel verbieten wie sie will, der Roboter wird irgendwann auch im militärischen Bereich eingesetzt. Technische Innovationen lassen sich nicht verbieten. Im Mittelalter hatte der Papst jeden exkommuniziert, der eine Armbrust gegen Ritter eingesetzt hatte. Die Geschichte wiederholt sich immer wieder.
Frage; warum will Mensch töten? Aus habgier und raffsucht ! So und wir leben haben Gefühle und Verstand ! Ich will mir dann nicht ausmalen , was passiert wenn Maschinen das in der Hand haben.
Naja was heisst nicht im Einsatz ? Drohnen sind ja schon im Einsatz .Sie meinen ob künstliche Intelligenzen entscheiden sollten im Kriegsgeschehen ! Wenn man so ein Zukunfts senario wie bei Terminator anstrebt warum nicht ,wenn nicht Rate ich davon strikt hab
Nein, wir brauchen kein präventiv-Verbot von Robotern.
Aber man könnte sich gedanken machen ob man einen Konvent in Genf zusammen trommelt um dann eine Konvention für Kriegswaffenverbote, an die sich nicht jeder hält, zu erlassen.
die Fragen werden immer bescheuerter. Nein, wir wollen alle nicht sterben. Nein, wir nehmen Politiker schon lange nicht mehr ernst. Und Nein, ich glaube nicht an den Osterhasen.
Krass.
Ich sehe es so wie Martin. Als Hilfe im Haushalt für alte Menschen oder für Kinder ist so ein Roboter vielleicht nicht schlecht.
Roboter als Kriegsgerät einzusetzen ist vielleicht doch nicht so gut. Dazu sollte man es international klären.
Sehr gefährlich. Kein Zweifel.
Gibt es wirklich Befürworter?
Länder wie die USA und Russland stellen sich gegen ein Verbot
Und damit beugen sich die Europäer und vor allem die Deutschen gerne.