Weiter zum Inhalt
Künstliche Intelligenz & Militär » Hände weg von bewaffneten Drohnen
11Dez

Hände weg von bewaffneten Drohnen

Drohnen sind selbständig agierende Flugroboter, die sofern bewaffnet, auch selbständig anhand von Algorithmen entscheiden, ob sie ein Ziel angreifen oder nicht. „Ziel“ heisst dabei vielfach auch „Mensch“. Wollen wir die Entscheidung über einen tödlichen Angriff auf Menschen einem Computerprogramm überlassen?

Meine Antwort lautet: Nein!

Warum den nicht, könnte man nun fragen, schließlich können wir so unseren Soldaten den lebensgefährlichen Einsatz in Einzelfällen ersparen und die Arbeit von Drohnen erledigen lassen.

Die Antwort „Nein“ möchte ich daher aus unterschiedlichen Blickwinkeln beleuchten: zunächst aus Sicht der Informatik, juristisch und schließlich aus strategisch-militärischer Sicht.

US Amerikanische Predator Drohne

US Amerikanische Predator Drohne – von Tech. Sgt. Sabrina Johnson (http://www.af.mil/news/story.asp?id=123106863) [Public domain], via Wikimedia Commons

In meiner Diplom Arbeit habe ich mich mit künstlichen neuronalen Netzen und künstlicher Intelligenz beschäftigt. Es ist für mich immer noch faszinierend, wie durch Nachahmung von Mechanismen des neuronalen Lernens, wie es prinzipiell auch in unseren Gehirnen stattfindet, Programme und damit auch Roboter sich eine beschränkte, eigenständige Intelligenz aneignen können.So bin ich begeisterter Besitzer eines Saugroboters, der weitgehend eigenständig unsere Wohnung saugt. Laut Hersteller erkennt er alle Hindernisse und kehrt selbstständig zur Ladestation zurück, wenn der Akku fast leer ist. Manchmal verheddert er sich allerdings an einem Kabel oder an einem Hocker. Da kann ich gut mit leben, meistens saugt er ja ordentlich.

Bei der theoretischen Betrachtung von Algorithmen künstlicher Intelligenz lernen Informatik-Studenten, dass sich die Fehlertoleranz von Algorithmen im Bereich der künstlichen Intelligenz nicht absolut sondern nur mit Wahrscheinlichkeiten annähern lässt. Mit einer Wahrscheinlichkeit von 90% wird der Saugbrotober das Wohnzimmer störungsfrei saugen, ohne sich am Klavierhocker fest zu beißen. Das ist OK; wenn er täglich saugt, muss ich ihn im Schnitt innerhalb von 2 Wochen etwa einmal selber zur Ladestation zurück tragen. Ein weiterer Grundsatz der theoretischen Informatik lautet: die Korrektheit von Computerprogrammen kann allgemein nicht mit letzter Sicherheit bewiesen werden.

Technisch unterscheidet sich eine Kampf-Flugdrohne von einem Saugroboter wesentlich in 2 Dingen: der Saugroboter rollt und saugt, die Drohne fliegt und tötet.

Wenn Ingenieure und Informatikerinnen ihren Job gut gemacht haben, haben sie ausgefeilte Algorithmen implementiert und ausgiebig getestet. Die Zuverlässigkeit liegt vielleicht weit über der von Saugrobotern. Aber eines ist sicher: sie liegt unter 100%. Damit ist es unvermeidbar, dass Kampfmaschinen nicht „nur“ feindliche Soldaten oder sogenannte feindliche Kämpfer töten, sondern auch Zivilisten und Kinder.

Dies bestätigt auch eine Studie der Stanford Universität zum Drohneneinsatz in Wasiristan, derzufolge zwischen Juni 2004 und September 2012 zwischen 2562 und 3325 Menschen durch Drohnen umgebracht wurden, davon 474-881 Zivilisten, davon wiederum 176 Kinder. Stimmen diese Zahlen auch nur ungefähr, dann ist die Zuverlässigkeit dieser Kampfmaschinen deutlich schlechter als die von Saugrobotern.

Unter strategischen Gesichtspunkten hat sich gerade in Afghanistan gezeigt: mit dem Töten von Zivilisten und Kindern gewinnt man keine Freunde, sondern das Gegenteil tritt ein: die Taliban gewinnen an Zulauf.

Für militärische Operationen gilt der Grundsatz, dass zivile Opfer ohnehin nur minimal in Kauf genommen werden dürfen, wenn eine konkrete massive Gefahr abgewendet werden kann und der militärische Nutzen gewichtig ist. Insbesondere für die gezielte Tötung von vermeintlichen oder tatsächlichen Terroristen trifft dies nicht zu. Hierbei handelt es sich ohnehin um außergerichtliche Hinrichtungen, außerhalb aller nationalen und internationaler Rechtsnormen.

So kommt auch der Göttinger Strafrechtsprofessor und Landgerichtsrichter Kai Ambos zu dem Schluss:

Aus alldem kann für rechtsstaatliche Streitkräfte wie die Bundeswehr nur folgen:
Hände weg von bewaffneten Drohnen!

Verweise und Links:

  • Kai Ambos, Süddeutsche Zeitung vom 17.10.2012 „Drohnen sind Terror“
  • Artikel zu Drohnen in der deutschsprachigen Wikipedia
  • Die Studie der Stanford Law School http://livingunderdrones.org/
  • Korrektheit von Computerprogrammen in der Wikipedia
  • Unterhaltsam und nachdenklich: Kampfroboter konsequent zu Ende gedacht in der Star Trek „The Next Generation“ Episode Die Waffenhändler
Verfasst am 11.12.2012 um 23:30 Uhr von .
Bislang wurde kein Kommentar hinterlassen. Du kannst hier einen Kommtenar schreiben.
Hier ist die TrackBack URL und der Kommentar-Feed des Artikels. Du kannst den Artikel auch auf Twitter oder Facebook posten.

Valides XHTML & CSS. Realisiert mit Wordpress und dem Blum-O-Matic -Theme von kre8tiv - Benjamin Jopen.
28 Datenbankanfragen in 0,850 Sekunden · Anmelden