Wie Roboter den Krieg menschlicher machen sollen


militaerisch-nutzbare-roboter

„Atlas“-Roboter der US-Firma Boston Dynamics bei einem Wettbewerb der Pentagon-Forschungsabteilung Darpa: Das US-Verteidigungsministerium interessiert sich seit Jahren für militärisch nutzbare Roboter. (Quelle: Reuters)

Autonome Waffensysteme

Sollen Kampfroboter selbst entscheiden, wann sie schießen? Für Kritiker sind vollautonome Waffensysteme ein Horrorszenario – nicht aber für manche Experten. Sie glauben, dass Roboter im Krieg ethischer handeln könnten als Menschen.

Ronald Arkin ist binnen Sekunden auf Betriebstemperatur. „Die Situation von Unbeteiligten in Kriegen ist vollkommen inakzeptabel“, ruft der US-Professor in den Presseraum des Euroscience Open Forum, Europas größter interdisziplinärer Forschungskonferenz, die derzeit in Kopenhagen stattfindet. „Technologie kann, sollte und muss eingesetzt werden, um Zivilisten zu schützen.“

Eine Möglichkeit, das zu tun, seien tödliche autonome Roboter. Maschinen, die selbstständig über Leben und Tod entscheiden. Die Menschen mit ihren Sensoren erfassen, ihn als legitimes Ziel identifizieren, ihre Waffen aktivieren und ihn töten.

„Niemand will den Terminator“, sagt Arkin. Aber in bestimmten Kriegssituationen könnten Roboter womöglich besser als Menschen in der Lage sein, ethisch zu handeln. Sie könnten viel mehr Informationen viel schneller verarbeiten und so weniger tödliche Fehler begehen. Und eine Maschine handelt ohne Hass, ohne Frust, ohne Rachsucht, ohne Nervosität oder Angst um das eigene Leben.

Aber sie handelt auch ohne Mitgefühl, ohne Kreativität und ohne die Fähigkeit, komplexe Situation beurteilen zu können oder sich zu fragen, ob ihr Handeln verhältnismäßig ist. Ob es etwa richtig ist, zum Erreichen eines vielleicht legitimen Ziels Menschen zu töten – und falls ja, wie viele. Dergleichen, glaubt Noel Sharkey, lasse sich nicht in Algorithmen fassen. Deshalb gehörten vollautonome Kampfroboter schnellstmöglich verboten.

„Das wäre zutiefst unmenschlich“

Sharkey, emeritierter Professor für Künstliche Intelligenz und Robotik an der britischen University of Sheffield, ist so etwas wie Arkins akademische Nemesis, die beiden sind die prominentesten Antipoden in der Kampfroboter-Debatte, die immer öfter aus Expertenzirkeln in die Öffentlichkeit dringt.

Er hält es nicht nur für technisch kaum machbar, ethisch handelnde vollautonome Roboter zu entwickeln. „Maschinen“, sagt er, „sollten grundsätzlich nicht entscheiden dürfen, ob ein Mensch lebt oder stirbt.“ Derartiges an Roboter zu delegieren, wäre zutiefst unmenschlich.

Das Problem: Die Debatte kommt möglicherweise um Jahre zu spät. Schon heute gibt es Marschflugkörper, Drohnen, automatische Verteidigungssysteme auf Schiffen oder bestimmte Land- und Seeminen, die selbstständig angreifen können:

  • Im April 2014 berichteten russische Medien, dass Moskau seine Atomwaffenlager künftig mit bewaffneten Robotern schützen wird. Die Nachrichtenagentur RIA Novosti zitierte einen Sprecher des Verteidigungsministeriums mit der Aussage, die Maschinen könnten „stationäre und bewegliche Ziele erfassen und zerstören“.
  • Südkorea hat an der Grenze zu Nordkorea stationäre Roboter postiert. Der „Security Guard Robot 1“ („SGR-1“) ist mit einem Maschinengewehr bewaffnet und ferngesteuert, soll aber auch in der Lage sein, Feinde automatisch zu erkennen und zu bekämpfen, wie ein martialisches Werbevideo zeigt.
  • Israel lässt an der Grenze zum Gaza-Streifen seit einiger Zeit ein Roboter-Auto selbständig Patrouille fahren. „Guardium“ ist laut öffentlich verfügbaren Informationen derzeit unbewaffnet, könnte aber mit Waffen ausgestattet und nach Angaben der israelischen Armee auch „autonom reagieren“ und „gewaltsame Methoden anwenden, um die Bedrohung zu eliminieren“.
  • Die israelische „Harpy“-Drohne kann feindliche Radarstellungen erfassen und selbständig angreifen, ohne dass ein Mensch den entsprechenden Befehl geben muss. Das Fluggerät wird nicht nur von Israel selbst, sondern auch von der Türkei, China, Südkorea, Chile und Indien genutzt.

Die Grenze zwischen automatischen und autonomen Systemen ist fließend, eine allgemeingültige Definition gibt es nicht. Eines aber ist sicher: Militärs und Rüstungskonzerne in aller Welt forschen an Robotern, die sich veränderbaren Bedingungen anpassen und eigene Entscheidungen treffen können – bis hin zum Waffeneinsatz, auch wenn das Pentagon dies bisher noch offiziell ablehnt.

Forschung an rücksichtsvollen Kampfrobotern

Erst im Mai wurde bekannt, dass das Office of Naval Research der US-Marine an mehreren Universitäten erforschen lässt, wie man Robotern ethisches Verhalten beibringen kann. 7,5 Millionen Dollar sollen dafür fließen, verteilt über fünf Jahre.

Auch das US-Verteidigungsministerium interessiert sich schon seit Jahren für die Entwicklung rücksichtsvoller Kampfroboter. Ende 2013 veröffentlichte das Pentagon die „Unmanned Integrated Systems Roadmap“ für den Zeitraum von 2013 bis 2038.

„Autonomie und kognitives Verhalten“ ist darin als eine von sechs Schlüsseltechnologien für künftige unbemannte Systeme genannt. Lernende Maschinen, so heißt es, sollen im Rahmen ihrer Programmierung eigene Strategien entwickeln und ihr Verhalten selbst wählen, um eine Mission zu erfüllen.

Im November 2012 hatte das Pentagon bereits in einer Direktive eigens die Entwicklung und den Einsatz tödlicher autonomer Waffensysteme geregelt – anstatt sich von ihnen zu distanzieren, wie Sharkey kritisiert. Damit provoziere Washington einen neuen Rüstungswettlauf. „Und der beginnt bereits“, warnt Sharkey in Kopenhagen.

Er befürchtet, dass auch fliegende Drohnen der nächsten Generation vollautonom agieren könnten – etwa die US-Tarnkappendrohne „X-47B“oder die britischen und russischen Gegenstücke „Taranis“ und „Skat“. Ähnliches stand in einer im Januar 2014 veröffentlichten Studie des einflussreichen US-Thinktanks „Center for a New American Security“.

Die heutigen ferngesteuerten unbemannten Systeme würden schon bald von „zunehmend autonomen Systemen“ verdrängt – an Land und in der Luft, unter und über Wasser sowie im Weltraum. Das Resultat könnte nicht weniger als eine „Revolution der unbemannten Militärtechnik“ und der Kriegsführung insgesamt sein.

Streit im totales Verbot

Menschenrechtler stemmen sich mit aller Kraft gegen diese Entwicklung. Human Rights Watch (HRW) etwa hat die Kampagne „Stop Killer Robots“angestoßen, der sich inzwischen 53 nicht-staatliche Organisationen aus 25 Ländern sowie diverse Wissenschaftler angeschlossen haben, darunter Sharkey.

Vor kurzem hat HRW mit dem Bericht „Losing Humanity“ für Schlagzeilen gesorgt. Die Forderung nach dem Killerroboter-Verbot wird darin unter anderem damit begründet, dass „vollständig autonome Waffen nicht imstande wären, gesetzliche Standards einzuhalten“.

Sollte das aber stimmen, wären Kampfroboter auch nach dem heute geltenden humanitären Völkerrecht schon illegal, argumentieren Juristen wie etwa Michael Schmitt, Völkerrechtsprofessor am Human Rights Watch (HRW) und an der britischen Durham University. Deshalb bedürfe es keines weiteren Verbots, argumentiert Schmitt in einer Replik auf das HRW-Papier.

Auch Arkin hält ein totales Verbot autonomer Kampfroboter für verfrüht. Er könnte sich eher ein Moratorium vorstellen – „bis wir genauer wissen, ob es Robotern gelingen kann, sich besser an das Kriegsrecht zu halten als Menschen.“ Natürlich sei das ein enormes technisches Problem. „Aber ich habe noch keinen Beweis dafür gesehen, dass es unlösbar ist.“

Würde es weniger Tote geben?

Für Wolfgang Richter, ehemaliger Bundeswehr-Oberst und inzwischen bei der Berliner Stiftung Wissenschaft und Politik tätig, geht in der Debatte einiges an der Praxis vorbei. Denn immerhin, betont Richter in Kopenhagen, gebe es auch noch militärische Befehlshaber – und die würden es Maschinen kaum gestatten, außerhalb jeder Kontrolle zu operieren.

„Roboter führen Funktionen aus, die von Menschen entworfen wurden und kontrolliert werden“, sagt Richter. Nützlich könnten sie in Situationen sein, in denen sie planbare Aufgaben erledigen, in denen sie dem Menschen aufgrund ihrer technischen Fähigkeiten überlegen sind, und in denen potenzielle Ziele leicht und klar identifizierbar sind. Für solche Einsätze aber, sagt Richter, „müssen Roboter keine eigenständigen ethischen Entscheidungen treffen können“.

Sharkey ist dagegen davon überzeugt, dass autonome Roboter volle moralische Urteilskraft haben müssten, um selbstständig schießen zu dürfen – und das werde wahrscheinlich nicht möglich sein. Ein Roboter könne keine eigene Moral entwickeln, sondern bestenfalls den ethischen Vorstellungen seines Programmierers folgen.

David Rodin, Kriegsethiker an der University of Oxford, sieht die alles entscheidende Frage darin, ob der Einsatz autonomer Roboter in Konflikten die Zahl der Toten senken könnte. Zwar würde die Maschine, wenn sie einen Menschen verschone, dies nicht aus Mitgefühl oder eigenen moralischen Erwägungen tun. „Das Menschen aber womöglich aus den falschen Gründen gerettet werden“, meint Rodin, „ist ein eher schwaches Argument.“

Quelle: http://www.t-online.de/nachrichten/militaer-special/id_69993094/autonome-waffen-wie-roboter-den-krieg-menschlicher-machen-sollen.html

Gruß an die Zyniker

TA KI

 

Werbeanzeigen

4 Kommentare zu “Wie Roboter den Krieg menschlicher machen sollen

  1. „Niemand will den Terminator!“
    Allein dieser Satz zeigt doch schon, für wie blöd die den Durchschnittsmenschen inzwischen halten!
    Dieses absolut perverse Geschmeiß ist doch auf nichts geiler als auf hemmungslose Tötungsmaschinen!
    Das ist doch allein schon äußerlich an den U$-Soldaten zu erkennen, und deren Verhalten im „Einsatz“ ist danach!
    Wer die Netzfilme davon kennt, weiß, was ich meine!

    Adolph

  2. Hat dies auf Aussiedlerbetreuung und Behinderten – Fragen rebloggt und kommentierte:
    Die kann man dann auch in die Drohnen setzen und mit ihnen steuernd dann auch zur Kommunikation in Freund/Feinderkennung einsetzen, billig, weil keine Verwandtschaft und da auch kein Versagen beim Schlachten von Menschen und derer Depressionen! Schlecht nur, weil sie nicht vor Magneten und Störfrequenzen sicher sind! Schlecht auch, die Umgebungstemperatur und da auch Wasser mit Säuren vermist, machen sie unbrauchbar! Siehe auch Stanislaw Lem und andere Utopisten im Schriftstellerbereich, nun kann man sagen, das Utopieen meist auch etwas Seherisches haben, ähnlich auch die Serie, die die DDR herrausbrachte von der Welt über dem Teich und von einem Thymothy Dingsda! Kaum zu bekommen die Dinge um Gorge Orwell und seinem Buch 1984! Drohnen Kamera und auch Special-Trupp´s, siehe FEMA _ Camps und Nichtstuer in Amerika von der Straße geholt, um das Ansehen von Städten nicht zu verletzen, die so oder so marode sind, weil keine Fachkundigen und Firmen diese erhalten können! Die ziehen lieber in Kriege und erobern sich Knechte und Rohstoffe! Glück, Auf, meine Heimat!

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.