Würdest du Künstlicher Intelligenz deine Sicherheit anvertrauen? In vielen Lebensbereichen ist der Einsatz Künstlicher Intelligenz (KI) fester Bestandteil: Die Geschäftswelt nutzt sie, die Medien und Regierungen auch. Warum sollte KI also nicht auch für Sicherheit und Verteidigung eingesetzt werden?
Wir reden von Algorithmen, die wiederkehrende Muster in Finanzdokumenten oder Gesprächsaufnahmen erkennen, Gesichtserkennungstechnologien, die Aufnahmen öffentlicher Videoüberwachungsbilder scannen, Programme, die eigenhändig Drohnen und andere Waffensysteme steuern. Ist Künstliche Intelligenz vielleicht verbreiteter als man denkt? Wird KI dazu beitragen, die internationale Sicherheit zu verbessern und menschliche Fähigkeiten effektiv zu ergänzen? Oder steuern wir auf einen Alptraum zu, in dem wir unter ständiger Beobachtung und Überwachung stehen?
Im Rahmen der Debating Security Plus (DS+) Online-Ideensammlung, deren Bericht am 20. September 2018 beim jährlichen Friends of Europe Sicherheitsgipfel veröffentlicht wird, diskutierten die Teilnehmer, welchen Einfluss neue Technologien wie Künstliche Intelligenz und maschinelles Lernen auf die Sicherheit haben. Eines ist klar, diese neuen Technologien werden Realität. Wenn wir sie nicht entwickeln, wird es jemand anderes tun. Ist die Gesetzeslage stark genug, um den Missbrauch dieser neuen Technologien verhindern zu können?
Was sagen unsere Leser? Don glaubt, dass wir durch den Einsatz Künstlicher Intelligenz sicherer werden. Sicherheitsdienste werden zukünftig deutlich mehr auf maschinelles Lernen, Künstliche Intelligenz und Big-Data-Analysen setzen. Kann Künstliche Intelligenz unsere Sicherheit garantieren? Oder sollten Fehlmeldungen durch Voreingenommenheit uns Sorgen machen?
Dons Frage haben wir Edoardo Camilli gestellt, Geschäftsführer von Hozint, ein Unternehmen, das sowohl mit KI als auch mit menschlichen Analysen arbeitet. Was sagt er dazu?
![]()
Die einfache Antwort wäre: Nein, ich würde meine Sicherheit nicht KI anvertrauen! Ich finde, Künstliche Intelligenz ist eine wunderbare Technologie, die mehr und mehr im Bereich Sicherheit übernehmen wird und immer mehr Anwendungsbereiche finden wird. Aber ausgehend vom derzeitigen Entwicklungsstand der Technologie, finde ich sie noch zu unzuverlässig.
Das hat mehrere Gründe. Zum einen muss die Technologie des maschinellen Lernprozesses weiterentwickelt werden, um bessere Ergebnisse zu erzielen. Dies zeigte beispielhaft ein Bericht von Scotland Yard vom Mai diesen Jahres, der sagt, dass in 91% der Fälle die Gesichtserkennung mit der getesteten Kamera versagte. Die richtigen Leute, also die potentiellen Kriminellen, konnten nicht identifiziert werden. Dies eröffnet offensichtlich eine grundsätzliche Debatte über alle möglichen Systeme der Gesichtserkennung und das maschinelle Lernen. Wir müssen uns klar darüber werden, dass trotz des technologischen Fortschritts, nicht nur im Bereich der Informatik, sondern auch in der Qualität der Kameras, die Daten nicht gut sind. Dies kann zu einer verzerrten Wahrnehmung führen, wie Sie bereits erwähnt haben. Zum Beispiel haben wir in einigen Ländern keine aussagekräftigen Daten zu Minderheiten. Es ist also sehr schwierig, einen Algorithmus zu trainieren, wenn Sie einen schlechten Datensatz haben. Das System wird ständig besser, aber in diesem Stadium sehe ich nicht, dass KI viele Sicherheitsaufgaben von Menschen übernehmen könnte. Unter bestimmten Umständen kann sie sehr hilfreich sein, aber in anderen Fällen kann Künstliche Intelligenz mehr Probleme verursachen, als es wert ist.
Für eine weitere Perspektive, stellten wir die Frage an Dr. Gautam Shroff, Vize-Präsident und wissenschaftlicher Leiter, TCS Research von Tata Consultancy Services. Was sagt er zu Dons Kommentar?
![]()
Wenn wir über Sicherheit sprechen, denke ich, wird maschinelles Lernen bereits eingesetzt, zum Beispiel für die Betrugsprävention bei Finanztransaktionen. Ob es eine bessere Lösung ist oder nicht, wird sich anhand der Statistik zeigen. Was wir bisher wissen, ist, dass maschinelles Lernen mit Deep Learning erhebliche Vorteile bringt und Fehlalarme immer vorkommen können, egal welche Technik man am Ende benutzt. Bei herkömmlichen Sicherheits-Scans ist die Anzahl der Fehlalarme sehr hoch und es wurden bereits viele Anstrengungen unternommen, um sie zu bereinigen, was viel Zeit in Anspruch nimmt. Maschinelles Lernen kann diese Probleme erheblich reduzieren. Viele Finanzdienstleister nutzen dies bereits. Mit der Zeit wird die Technologie besser, dann wird es auch mehr genutzt werden.
Ob man sich mit einer Technologie sicher fühlt, hängt davon ab, wie effektiv sie ist. Wenn es um Sicherheit geht, gibt es nichts, was zu 100 Prozent effektiv ist. Wenn maschinelles Lernen zur Entscheidungsfindung und Revidieren von Entscheidungen beiträgt und das Vertrauen in Ergebnisse stärkt, finde ich das eine gute Sache. Ich finde, dies ist nichts anderes als das, was früher gemacht wurde, außer dass man sich die Erfahrung zu Nutzen macht und daraus lernt – das ist der Schlüssel, denke ich. Es gibt nichts, worüber man sich Sorgen machen müsste. Sie bekommen eine Technologie, die täglich besser wird.
Wenn es um Voreingenommenheit geht, hängt es sehr davon ab, wie voreingenommen die Daten sind. Es gibt keine inhärente Verzerrung des maschinellen Lernens, aber wenn Sie lernen, menschliche Daten zu rationalisieren und menschliche Daten verzerrt sind, dann sind unsere Instrumente voreingenommen. Man muss also sagen: Arbeite an den Daten, um sicherzustellen, dass sich keine Verzerrung unabsichtlich eingeschlichen hat.
Für eine weitere Perspektive haben wir zudem Mary Wareham befragt, Chef-Lobbyistin Waffen bei Human Rights Watch und Co-Koordinatorin der internationalen “Stop Killer Robots”-Kampagne. Was sagt sie dazu?
![]()
Ich arbeite für Human Rights Watch im Bereich Waffen zu verschiedenen Waffensystemen; Landminen, Streubomben, Brandwaffen. Seit etwa fünf Jahren setzen wir uns dafür ein, die sogenannten „Killerroboter“, also völlig autonome Waffensysteme zu verbieten. Diese Waffensysteme unterscheiden sich nicht zu sehr von den bereits eingesetzten Waffen. Unsere Kritik beruht auf der Autonomie der Waffen und ihre Verwendung in kritischen Situationen, wie die Anvisierung eines Ziels und das Abfeuern darauf. Bisher liegt die Verantwortung in Menschenhänden. Unsere Befürchtung ist, dass durch das Einbeziehen autonomer Waffensysteme ein gefährlicher Weg eingeschlagen wird, der darin enden könnte, dass Maschinen verantwortlich sind, zu entscheiden, wer ein legitimes Ziel ist und wann man darauf schießen muss oder nicht. Hier wird eine moralische Grenze überschritten! Es ist für uns inakzeptabel, dass eine Maschine das Leben eines Menschen auslöschen kann, sei es auf dem Schlachtfeld, bei Polizei- und Grenzkontrollen oder in anderen Situationen. Doch damit werden wir uns in Zukunft konfrontiert sehen, wenn es so weiter geht.
Human Rights Watch und die “Stop Killer Robots”- Kampagne sind nicht grundsätzlich gegen den Einsatz von Autonomie und künstlicher Intelligenz. Militärs auf der ganzen Welt reden darüber, wie Autonomie dazu benutzt werden kann, die schmutzigen, dumpfen, gefährlichen Funktionen im Krieg zu erfüllen; sie wissen schon: die Wäsche, die Reinigung von Schiffen, das Einsenden von Sprengstoff-Entsorgungsrobotern. Uns ist bewusst, dass es auch Vorteile hat. Die eigentliche Gefahr sehen wir darin, dass ein Waffensystem autonom gemacht wird, bis zu dem Ausmaß, dass am Ende die Entscheidung über Leben oder Tod nicht mehr in menschlicher Hand liegt. Das geht zu weit, und deshalb kämpfen wir dafür, Killerroboter zu stoppen.
Kann Künstliche Intelligenz unsere Sicherheit garantieren? Oder vertrauen wir zu sehr auf Technologien und Algorithmen? Könnte die Automatisierung unserer Sicherheit gefährlich sein? Schreib uns deine Meinung!
One Kommentare Schreib einen KommentarKommentare
Ein Punkt, der noch nicht von den vertretenden Experten genannt wurde, was wäre, wenn die Waffen in die falschen Hände geraten?
In Anbetracht dessen, dass in letzter Zeit immer wieder Lücken im IT-Sicherheitsnetz aufgedeckt werden, ich denke insbesondere an die Energieverwaltung, sollte, solange keine vollständige Sicherheit, durch Befehle dritter, der Sicherheitssysteme gewährleistet werden kann, muss ein Mensch anwesend sein, der die Maschine abschaltet bzw. bei Autonomen Waffen, die Zerstörung befielt.
Der letzte Punkt sollte immer auch bei vollständig unabhängigen Waffensystemen gelten, da hierbei Missbrauch durch die Software möglich wäre, und die Folgen noch grafierender sind.