Forscher warnen vor Einsatz intelligenter Kampfroboter


stephen-hawking

 

Buenos Aires (dpa) –

Wissenschaftler warnen vor dem Einsatz selbstständiger Kampfroboter im Krieg. Intelligente Drohnen, die anhand definierter Kriterien eigenständig töten können, seien eventuell schon in wenigen Jahren verfügbar, hieß es in einem Brief vor einer Technologie-Konferenz in Buenos Aires.

Die Forscher richteten sich ausdrücklich nicht gegen von Menschen gesteuerte Kampfdrohnen, wie sie die USA beispielsweise im Kampf gegen mutmaßliche Terroristen einsetzen.

Unterzeichnet wurde das Schreiben unter anderem von dem Astrophysiker Stephen Hawking, Apple-Co-Gründer Steve Wozniak und Sprachwissenschaftler Noam Chomsky. Die autonomen Waffensysteme könnten leicht in die Hände von Terroristen und Diktatoren fallen, warnten die Robotik-Forscher. Sie eigneten sich für gezielte Mordanschläge und sogenannte ethnische Säuberungen. Mit künstlicher Intelligenz ausgestattete Waffensysteme sollten deshalb verboten werden, hieß es in dem von fast 2000 Experten unterzeichneten Brief. © dpa

Quelle: http://web.de/magazine/digital/forscher-warnen-einsatz-intelligenter-kampfroboter-30792176

Gruß an die Menschlichkeit

TA KI

Werbeanzeigen

Roboter schreiben Buchstaben


Bin ich schon am richtigen Platz? Über komplexe Rechenprozesse kann sich jeder einzelne von tausend kleinen „Kilobots“ exakt in eine vorgegebene Formation fügen. Wer am falschen Platz sitzt, bekommt einen Hinweis vom Nachbarn.

diese-kilobots-wissen-wie-sie-buchstaben-oder-muster-zu-bilden-haben

Tausend kleine Roboter bewegen sich vibrierend über eine Fläche und bilden allmählich den Buchstaben K oder einen Stern. Dabei ist ihr Weg nicht einprogrammiert, stattdessen folgen sie einfachen Regeln. Dieses beachtliche Kunststück ist nun Wissenschaftlern von der University Harvard in Cambridge (Massachusetts)) gelungen. Wie sie den Roboterschwarm dazu brachten,durch Selbstorganisation flächige Strukturen zu bilden, beschreiben Michael Rubenstein und seine Mitarbeiter in der Zeitschrift „Science“ (doi: 10.1126/science.1254295).

Nach Angaben der Forscher haben bisher nur wenige Schwarmexperimente die Zahl von hundert Robotern überschritten. Schwärme von Ameisen, Fischen oder Vögeln bestehen oft aus erheblich mehr Tieren. „Unsere Arbeit lässt das Ziel näher rücken, künstliche Schwärme mit den Fähigkeiten der natürlichen zu schaffen“, schreiben Rubenstein und Kollegen.

dreibeiniger-kilobot

Die „Kilobots“ genannten Roboter sind etwas größer als eine Zwei-Euro-Münze. Sie stehen auf drei Beinchen und werden von zwei Vibrationsmotoren angetrieben. Laufen beide Motoren, bewegt sich ein Kilobot geradeaus. Ist nur einer an, vollführt er eine Kurvenbewegung.

Wenn die Roboter die Informationen für das Muster erhalten, die sie bilden sollen, beginnt der Vorgang mit vier Initialrobotern in einer Ecke des Schwarms. Zufällig ausgewählte Roboter beginnen dann, am Rand der Robotertraube entlang zu laufen, bis sie die Initialroboter erreicht haben. Nun kann jeder Kilobot ein Koordinatensystem errechnen, das ihm anzeigt, ob er sich innerhalb oder außerhalb des vorgegebenen Musters befindet.

Algorithmus sorgt für Ordnung im Gewühl

Durch Datenaustausch über Infrarotsender und -empfänger mit seinen Nachbarn findet jeder Kilobot seinen Platz in der Formation. Dabei hilft ihm auch ein Gradient, der die Position eines jeden Roboters berechnet.Vereinfacht gesagt, zeigt der Gradient an, wie viele Reihen ihn von den Initialrobotern trennen. Der Kilobot läuft nun so weit, bis er entweder die Grenze des Musters erreicht oder einen Roboter mit gleichem Gradienten findet. Dort bleibt er stehen.

Um Behinderungen durch einzelne Roboter mit Fehlfunktionen zu vermeiden, führten Rubenstein und Kollegen einen Algorithmus ein, mit dem sich die Kilobots gegenseitig kontrollieren. Auf diese Weise können zum Beispiel Roboter, die an einer falschen Stelle stehengeblieben sind, auf ihren Fehler aufmerksam gemacht werden, damit sie ihn korrigieren. „Allgemein gesprochen, können viele Fehler durch Informationsaustausch mit den Nachbarn erkannt werden; die kooperative Kontrolle war entscheidend, um große Schwarmexperimente ohne menschlichen Eingriff zu ermöglichen“, schreiben die Wissenschaftler.

Quelle: http://www.faz.net/aktuell/wissen/physik-chemie/schwarmverhalten-roboter-schreiben-buchstaben-13097760.html

Gruß nach Hollywood

TA KI

Wie Roboter den Krieg menschlicher machen sollen


militaerisch-nutzbare-roboter

„Atlas“-Roboter der US-Firma Boston Dynamics bei einem Wettbewerb der Pentagon-Forschungsabteilung Darpa: Das US-Verteidigungsministerium interessiert sich seit Jahren für militärisch nutzbare Roboter. (Quelle: Reuters)

Autonome Waffensysteme

Sollen Kampfroboter selbst entscheiden, wann sie schießen? Für Kritiker sind vollautonome Waffensysteme ein Horrorszenario – nicht aber für manche Experten. Sie glauben, dass Roboter im Krieg ethischer handeln könnten als Menschen.

Ronald Arkin ist binnen Sekunden auf Betriebstemperatur. „Die Situation von Unbeteiligten in Kriegen ist vollkommen inakzeptabel“, ruft der US-Professor in den Presseraum des Euroscience Open Forum, Europas größter interdisziplinärer Forschungskonferenz, die derzeit in Kopenhagen stattfindet. „Technologie kann, sollte und muss eingesetzt werden, um Zivilisten zu schützen.“

Eine Möglichkeit, das zu tun, seien tödliche autonome Roboter. Maschinen, die selbstständig über Leben und Tod entscheiden. Die Menschen mit ihren Sensoren erfassen, ihn als legitimes Ziel identifizieren, ihre Waffen aktivieren und ihn töten.

„Niemand will den Terminator“, sagt Arkin. Aber in bestimmten Kriegssituationen könnten Roboter womöglich besser als Menschen in der Lage sein, ethisch zu handeln. Sie könnten viel mehr Informationen viel schneller verarbeiten und so weniger tödliche Fehler begehen. Und eine Maschine handelt ohne Hass, ohne Frust, ohne Rachsucht, ohne Nervosität oder Angst um das eigene Leben.

Aber sie handelt auch ohne Mitgefühl, ohne Kreativität und ohne die Fähigkeit, komplexe Situation beurteilen zu können oder sich zu fragen, ob ihr Handeln verhältnismäßig ist. Ob es etwa richtig ist, zum Erreichen eines vielleicht legitimen Ziels Menschen zu töten – und falls ja, wie viele. Dergleichen, glaubt Noel Sharkey, lasse sich nicht in Algorithmen fassen. Deshalb gehörten vollautonome Kampfroboter schnellstmöglich verboten.

„Das wäre zutiefst unmenschlich“

Sharkey, emeritierter Professor für Künstliche Intelligenz und Robotik an der britischen University of Sheffield, ist so etwas wie Arkins akademische Nemesis, die beiden sind die prominentesten Antipoden in der Kampfroboter-Debatte, die immer öfter aus Expertenzirkeln in die Öffentlichkeit dringt.

Er hält es nicht nur für technisch kaum machbar, ethisch handelnde vollautonome Roboter zu entwickeln. „Maschinen“, sagt er, „sollten grundsätzlich nicht entscheiden dürfen, ob ein Mensch lebt oder stirbt.“ Derartiges an Roboter zu delegieren, wäre zutiefst unmenschlich.

Das Problem: Die Debatte kommt möglicherweise um Jahre zu spät. Schon heute gibt es Marschflugkörper, Drohnen, automatische Verteidigungssysteme auf Schiffen oder bestimmte Land- und Seeminen, die selbstständig angreifen können:

  • Im April 2014 berichteten russische Medien, dass Moskau seine Atomwaffenlager künftig mit bewaffneten Robotern schützen wird. Die Nachrichtenagentur RIA Novosti zitierte einen Sprecher des Verteidigungsministeriums mit der Aussage, die Maschinen könnten „stationäre und bewegliche Ziele erfassen und zerstören“.
  • Südkorea hat an der Grenze zu Nordkorea stationäre Roboter postiert. Der „Security Guard Robot 1“ („SGR-1“) ist mit einem Maschinengewehr bewaffnet und ferngesteuert, soll aber auch in der Lage sein, Feinde automatisch zu erkennen und zu bekämpfen, wie ein martialisches Werbevideo zeigt.
  • Israel lässt an der Grenze zum Gaza-Streifen seit einiger Zeit ein Roboter-Auto selbständig Patrouille fahren. „Guardium“ ist laut öffentlich verfügbaren Informationen derzeit unbewaffnet, könnte aber mit Waffen ausgestattet und nach Angaben der israelischen Armee auch „autonom reagieren“ und „gewaltsame Methoden anwenden, um die Bedrohung zu eliminieren“.
  • Die israelische „Harpy“-Drohne kann feindliche Radarstellungen erfassen und selbständig angreifen, ohne dass ein Mensch den entsprechenden Befehl geben muss. Das Fluggerät wird nicht nur von Israel selbst, sondern auch von der Türkei, China, Südkorea, Chile und Indien genutzt.

Die Grenze zwischen automatischen und autonomen Systemen ist fließend, eine allgemeingültige Definition gibt es nicht. Eines aber ist sicher: Militärs und Rüstungskonzerne in aller Welt forschen an Robotern, die sich veränderbaren Bedingungen anpassen und eigene Entscheidungen treffen können – bis hin zum Waffeneinsatz, auch wenn das Pentagon dies bisher noch offiziell ablehnt.

Forschung an rücksichtsvollen Kampfrobotern

Erst im Mai wurde bekannt, dass das Office of Naval Research der US-Marine an mehreren Universitäten erforschen lässt, wie man Robotern ethisches Verhalten beibringen kann. 7,5 Millionen Dollar sollen dafür fließen, verteilt über fünf Jahre.

Auch das US-Verteidigungsministerium interessiert sich schon seit Jahren für die Entwicklung rücksichtsvoller Kampfroboter. Ende 2013 veröffentlichte das Pentagon die „Unmanned Integrated Systems Roadmap“ für den Zeitraum von 2013 bis 2038.

„Autonomie und kognitives Verhalten“ ist darin als eine von sechs Schlüsseltechnologien für künftige unbemannte Systeme genannt. Lernende Maschinen, so heißt es, sollen im Rahmen ihrer Programmierung eigene Strategien entwickeln und ihr Verhalten selbst wählen, um eine Mission zu erfüllen.

Im November 2012 hatte das Pentagon bereits in einer Direktive eigens die Entwicklung und den Einsatz tödlicher autonomer Waffensysteme geregelt – anstatt sich von ihnen zu distanzieren, wie Sharkey kritisiert. Damit provoziere Washington einen neuen Rüstungswettlauf. „Und der beginnt bereits“, warnt Sharkey in Kopenhagen.

Er befürchtet, dass auch fliegende Drohnen der nächsten Generation vollautonom agieren könnten – etwa die US-Tarnkappendrohne „X-47B“oder die britischen und russischen Gegenstücke „Taranis“ und „Skat“. Ähnliches stand in einer im Januar 2014 veröffentlichten Studie des einflussreichen US-Thinktanks „Center for a New American Security“.

Die heutigen ferngesteuerten unbemannten Systeme würden schon bald von „zunehmend autonomen Systemen“ verdrängt – an Land und in der Luft, unter und über Wasser sowie im Weltraum. Das Resultat könnte nicht weniger als eine „Revolution der unbemannten Militärtechnik“ und der Kriegsführung insgesamt sein.

Streit im totales Verbot

Menschenrechtler stemmen sich mit aller Kraft gegen diese Entwicklung. Human Rights Watch (HRW) etwa hat die Kampagne „Stop Killer Robots“angestoßen, der sich inzwischen 53 nicht-staatliche Organisationen aus 25 Ländern sowie diverse Wissenschaftler angeschlossen haben, darunter Sharkey.

Vor kurzem hat HRW mit dem Bericht „Losing Humanity“ für Schlagzeilen gesorgt. Die Forderung nach dem Killerroboter-Verbot wird darin unter anderem damit begründet, dass „vollständig autonome Waffen nicht imstande wären, gesetzliche Standards einzuhalten“.

Sollte das aber stimmen, wären Kampfroboter auch nach dem heute geltenden humanitären Völkerrecht schon illegal, argumentieren Juristen wie etwa Michael Schmitt, Völkerrechtsprofessor am Human Rights Watch (HRW) und an der britischen Durham University. Deshalb bedürfe es keines weiteren Verbots, argumentiert Schmitt in einer Replik auf das HRW-Papier.

Auch Arkin hält ein totales Verbot autonomer Kampfroboter für verfrüht. Er könnte sich eher ein Moratorium vorstellen – „bis wir genauer wissen, ob es Robotern gelingen kann, sich besser an das Kriegsrecht zu halten als Menschen.“ Natürlich sei das ein enormes technisches Problem. „Aber ich habe noch keinen Beweis dafür gesehen, dass es unlösbar ist.“

Würde es weniger Tote geben?

Für Wolfgang Richter, ehemaliger Bundeswehr-Oberst und inzwischen bei der Berliner Stiftung Wissenschaft und Politik tätig, geht in der Debatte einiges an der Praxis vorbei. Denn immerhin, betont Richter in Kopenhagen, gebe es auch noch militärische Befehlshaber – und die würden es Maschinen kaum gestatten, außerhalb jeder Kontrolle zu operieren.

„Roboter führen Funktionen aus, die von Menschen entworfen wurden und kontrolliert werden“, sagt Richter. Nützlich könnten sie in Situationen sein, in denen sie planbare Aufgaben erledigen, in denen sie dem Menschen aufgrund ihrer technischen Fähigkeiten überlegen sind, und in denen potenzielle Ziele leicht und klar identifizierbar sind. Für solche Einsätze aber, sagt Richter, „müssen Roboter keine eigenständigen ethischen Entscheidungen treffen können“.

Sharkey ist dagegen davon überzeugt, dass autonome Roboter volle moralische Urteilskraft haben müssten, um selbstständig schießen zu dürfen – und das werde wahrscheinlich nicht möglich sein. Ein Roboter könne keine eigene Moral entwickeln, sondern bestenfalls den ethischen Vorstellungen seines Programmierers folgen.

David Rodin, Kriegsethiker an der University of Oxford, sieht die alles entscheidende Frage darin, ob der Einsatz autonomer Roboter in Konflikten die Zahl der Toten senken könnte. Zwar würde die Maschine, wenn sie einen Menschen verschone, dies nicht aus Mitgefühl oder eigenen moralischen Erwägungen tun. „Das Menschen aber womöglich aus den falschen Gründen gerettet werden“, meint Rodin, „ist ein eher schwaches Argument.“

Quelle: http://www.t-online.de/nachrichten/militaer-special/id_69993094/autonome-waffen-wie-roboter-den-krieg-menschlicher-machen-sollen.html

Gruß an die Zyniker

TA KI