Ukraine soll Streubomben eingesetzt haben


Offenbar hat die ukrainische Armee im Kampf um die Stadt Donezk Streubomben eingesetzt. Menschenrechtler beschuldigen zudem die prorussischen Separatisten, ebenfalls die geächteten Waffen zu benutzen.

Feuerwehrmänner nach einem Angriff auf Donezk am 5. Oktober. Am selben Tag soll die ukrainische Armee Streubomben eingesetzt haben

Die ukrainische Armee soll im Kampf um die von prorussischen Separatisten besetzte Stadt Donezk im Osten des Landes Streubomben eingesetzt haben. Das berichtete die „New York Times“ unter Berufung auf materielle Beweise sowie Interviews mit Zeugen und Opfern.

Streubomben zerteilen sich vor dem Aufprall in viele kleinere Sprengsätze, sogenannte Bomblets. Sie verminen damit praktisch ganze Landstriche. Vor allem Kinder werden oft auch noch Jahre nach dem Abwurf zu Opfern, wenn die Munition explodiert. Der Einsatz der Bomben ist international geächtet.

Die Einschlagstellen von Raketenangriffen am 2. und 5. Oktober zeigten deutlich, dass Streumunition von Territorium abgefeuert worden sei, das von der Armee gehalten wird, berichtete die Zeitung. Dorfbewohner hätten auch Raketen mit Bomblets in ihren Feldern gefunden.

Bei den beiden Angriffen wurde den Angaben zufolge ein Schweizer Mitarbeiter des Roten Kreuzes getötet. Sechs Menschen seien verletzt worden. Zwischen dem ukrainischen Militär und den Separatisten herrscht seit einem Monat offiziell eine Waffenruhe, die aber immer wieder verletzt wird.

Human Rights Watch beschuldigt auch Separatisten

Die Menschenrechtsorganisation Human Rights Watch (HRW) kritisierte den Einsatz der Streubomben. „Es ist ziemlich offensichtlich, dass Streumunition in Wohngebieten eingesetzt wurde, besonders bei den Angriffen im frühen Oktober in Donezk“, sagte HRW-Waffenexperte Mark Hiznay. Vor allem bei Angriffen auf das Stadtzentrum von Donezk Anfang Oktober gebe es besonders deutliche Hinweise für die Verantwortung der Regierungstruppen. Hiznay: „Die militärische Logik hinter diesen Angriffen ist nicht offensichtlich, und diese Angriffe sollten aufhören, weil sie zu viele Zivilisten gefährden.“

In einem eigenen Bericht kommen die Menschenrechtler zu dem Schluss, dass Streubomben mindestens zwölf Mal gegen bewohnte Gegenden in der Ostukraine eingesetzt worden sind. Die Zahl solcher Schläge könnte aber auch höher sein.

HRW beschuldigte zudem die Separatisten, ebenfalls Streubomben eingesetzt zu haben. Beide Seiten des Konflikts seien schuldig, Angriffe durchgeführt zu haben, die „sich als Kriegsverbrechen herausstellen“ könnten.

Sollten sich die Vorwürfe gegen die ukrainische Armee bestätigen, stünde die von den USA und der EU unterstützte Regierung in Kiew unter Erklärungsdruck. Sprecher der Armee haben bislang bestritten, dass diese Streubomben einsetzt. Sie betonten, die Separatisten hätten Zugriff auf Raketensysteme aus Russland, mit denen sie Streumunition abfeuern könnten. In den beiden Vorjahren war Syrien das einzige Land weltweit gewesen, das diese Art von Waffe einsetzte.

Quelle: http://www.welt.de/politik/ausland/article133494674/Ukraine-soll-Streubomben-eingesetzt-haben.html

Gruß an die Vertreter der Halbwahrheiten

TA KI

Werbeanzeigen

Ukraine hat mit Raketen-Werfern Zivilisten getötet


Die Menschenrechts-Organisation Human Rights Watch wirft der ukrainischen Armee vor, bei ihren Angriffen auf die Millionenstadt Donezk Mehrfach-Raketenwerfer auf Wohngebiete eingesetzt zu haben. Dabei wurden zahlreiche Häuser zerstört und 16 Zivilisten getötet. Der Einsatz solcher Waffen ist in bewohnten Gebieten verboten und müsse als Kriegsverbrechen geahndet werden, so Human Rights Watch.

Grad gegen Zivilisten

Die Organisation Human Rights Watch (HRW) wirft der ukrainischen Armee den verbotenen Einsatz von Mehrfachraketen in besiedelten Gebieten vor. HRW hat vier Fälle bei Militäreinsatz der ukrainischen Regierung in der Ost-Ukraine untersucht und hat Belege dafür, dass der Einsatz dieser Raketen durch die Regierung erfolgt ist. Die Armee habe die Industrie-Metropole Donezk zwischen dem 12. und dem 21. Juli mit Raketen beschossen. Dabei seien 16 Zivilisten getötet und Dutzende verletzt worden. 

Bei den Gefechten um Donezk setzte die ukrainische Armee Mehrfach-Raketenwerfer vom Typ „Grad“ gegen Wohngebiete ein, wie aus dem Bericht von HRW hervorgeht. Der Einsatz solcher Waffen in bewohnten Gebieten stelle einen Verstoß gegen internationale Bestimmungen dar und müsse als Kriegsverbrechen geahndet werden, so ein Sprecher der Menschenrechtsorganisation.

„Grad-Raketen sind ungenaue Waffen, die nicht in bewohnten Gebieten eingesetzt werden sollten“, sagte der HRW-Sprecher Ole Solvang.

Auch die Rebellen in der Ost-Ukraine setzten „Grad“-Raketenwerfer ein. Die Menschenrechtsorganisation forderte die Separatisten auf, keine solche Waffen in Wohngebieten unterzubringen, um diese Gebiete von Angriffen der ukrainischen Armee zu verschonen. HRW appellierte zudem an beide Konfliktparteien, bei Gefechten in Ballungsgebieten auf diese Waffen komplett zu verzichten. Die Wahrscheinlichkeit, dass dabei Zivilisten getötet werden, sei zu hoch.

„Human Rights Watch ruft alle Konfliktparteien im Osten der Ukraine und vor allem die ukrainischen Regierungstruppen auf, den Einsatz ungelenkter Raketen in und in der Nähe von Wohngebieten zu stoppen“, so Solvang.

Erst vor wenigen Tagen hatte die OSZE von hunderten Toten berichtet, die offenbar zum großen Teil aus der Zivilbevölkerung kommen. Die Ursache für die hohe Anzahl an Opfern sieht die OSZE in dem beiderseitigen Granatenbeschuss von Wohngebieten in der Ost-Ukraine, vor allem in Luhansk.

Quelle: http://deutsche-wirtschafts-nachrichten.de/2014/07/26/human-rights-watch-ukraine-hat-mit-raketen-werfern-zivilisten-getoetet/

Gruß an die Russen

TA KI

Wie Roboter den Krieg menschlicher machen sollen


militaerisch-nutzbare-roboter

„Atlas“-Roboter der US-Firma Boston Dynamics bei einem Wettbewerb der Pentagon-Forschungsabteilung Darpa: Das US-Verteidigungsministerium interessiert sich seit Jahren für militärisch nutzbare Roboter. (Quelle: Reuters)

Autonome Waffensysteme

Sollen Kampfroboter selbst entscheiden, wann sie schießen? Für Kritiker sind vollautonome Waffensysteme ein Horrorszenario – nicht aber für manche Experten. Sie glauben, dass Roboter im Krieg ethischer handeln könnten als Menschen.

Ronald Arkin ist binnen Sekunden auf Betriebstemperatur. „Die Situation von Unbeteiligten in Kriegen ist vollkommen inakzeptabel“, ruft der US-Professor in den Presseraum des Euroscience Open Forum, Europas größter interdisziplinärer Forschungskonferenz, die derzeit in Kopenhagen stattfindet. „Technologie kann, sollte und muss eingesetzt werden, um Zivilisten zu schützen.“

Eine Möglichkeit, das zu tun, seien tödliche autonome Roboter. Maschinen, die selbstständig über Leben und Tod entscheiden. Die Menschen mit ihren Sensoren erfassen, ihn als legitimes Ziel identifizieren, ihre Waffen aktivieren und ihn töten.

„Niemand will den Terminator“, sagt Arkin. Aber in bestimmten Kriegssituationen könnten Roboter womöglich besser als Menschen in der Lage sein, ethisch zu handeln. Sie könnten viel mehr Informationen viel schneller verarbeiten und so weniger tödliche Fehler begehen. Und eine Maschine handelt ohne Hass, ohne Frust, ohne Rachsucht, ohne Nervosität oder Angst um das eigene Leben.

Aber sie handelt auch ohne Mitgefühl, ohne Kreativität und ohne die Fähigkeit, komplexe Situation beurteilen zu können oder sich zu fragen, ob ihr Handeln verhältnismäßig ist. Ob es etwa richtig ist, zum Erreichen eines vielleicht legitimen Ziels Menschen zu töten – und falls ja, wie viele. Dergleichen, glaubt Noel Sharkey, lasse sich nicht in Algorithmen fassen. Deshalb gehörten vollautonome Kampfroboter schnellstmöglich verboten.

„Das wäre zutiefst unmenschlich“

Sharkey, emeritierter Professor für Künstliche Intelligenz und Robotik an der britischen University of Sheffield, ist so etwas wie Arkins akademische Nemesis, die beiden sind die prominentesten Antipoden in der Kampfroboter-Debatte, die immer öfter aus Expertenzirkeln in die Öffentlichkeit dringt.

Er hält es nicht nur für technisch kaum machbar, ethisch handelnde vollautonome Roboter zu entwickeln. „Maschinen“, sagt er, „sollten grundsätzlich nicht entscheiden dürfen, ob ein Mensch lebt oder stirbt.“ Derartiges an Roboter zu delegieren, wäre zutiefst unmenschlich.

Das Problem: Die Debatte kommt möglicherweise um Jahre zu spät. Schon heute gibt es Marschflugkörper, Drohnen, automatische Verteidigungssysteme auf Schiffen oder bestimmte Land- und Seeminen, die selbstständig angreifen können:

  • Im April 2014 berichteten russische Medien, dass Moskau seine Atomwaffenlager künftig mit bewaffneten Robotern schützen wird. Die Nachrichtenagentur RIA Novosti zitierte einen Sprecher des Verteidigungsministeriums mit der Aussage, die Maschinen könnten „stationäre und bewegliche Ziele erfassen und zerstören“.
  • Südkorea hat an der Grenze zu Nordkorea stationäre Roboter postiert. Der „Security Guard Robot 1“ („SGR-1“) ist mit einem Maschinengewehr bewaffnet und ferngesteuert, soll aber auch in der Lage sein, Feinde automatisch zu erkennen und zu bekämpfen, wie ein martialisches Werbevideo zeigt.
  • Israel lässt an der Grenze zum Gaza-Streifen seit einiger Zeit ein Roboter-Auto selbständig Patrouille fahren. „Guardium“ ist laut öffentlich verfügbaren Informationen derzeit unbewaffnet, könnte aber mit Waffen ausgestattet und nach Angaben der israelischen Armee auch „autonom reagieren“ und „gewaltsame Methoden anwenden, um die Bedrohung zu eliminieren“.
  • Die israelische „Harpy“-Drohne kann feindliche Radarstellungen erfassen und selbständig angreifen, ohne dass ein Mensch den entsprechenden Befehl geben muss. Das Fluggerät wird nicht nur von Israel selbst, sondern auch von der Türkei, China, Südkorea, Chile und Indien genutzt.

Die Grenze zwischen automatischen und autonomen Systemen ist fließend, eine allgemeingültige Definition gibt es nicht. Eines aber ist sicher: Militärs und Rüstungskonzerne in aller Welt forschen an Robotern, die sich veränderbaren Bedingungen anpassen und eigene Entscheidungen treffen können – bis hin zum Waffeneinsatz, auch wenn das Pentagon dies bisher noch offiziell ablehnt.

Forschung an rücksichtsvollen Kampfrobotern

Erst im Mai wurde bekannt, dass das Office of Naval Research der US-Marine an mehreren Universitäten erforschen lässt, wie man Robotern ethisches Verhalten beibringen kann. 7,5 Millionen Dollar sollen dafür fließen, verteilt über fünf Jahre.

Auch das US-Verteidigungsministerium interessiert sich schon seit Jahren für die Entwicklung rücksichtsvoller Kampfroboter. Ende 2013 veröffentlichte das Pentagon die „Unmanned Integrated Systems Roadmap“ für den Zeitraum von 2013 bis 2038.

„Autonomie und kognitives Verhalten“ ist darin als eine von sechs Schlüsseltechnologien für künftige unbemannte Systeme genannt. Lernende Maschinen, so heißt es, sollen im Rahmen ihrer Programmierung eigene Strategien entwickeln und ihr Verhalten selbst wählen, um eine Mission zu erfüllen.

Im November 2012 hatte das Pentagon bereits in einer Direktive eigens die Entwicklung und den Einsatz tödlicher autonomer Waffensysteme geregelt – anstatt sich von ihnen zu distanzieren, wie Sharkey kritisiert. Damit provoziere Washington einen neuen Rüstungswettlauf. „Und der beginnt bereits“, warnt Sharkey in Kopenhagen.

Er befürchtet, dass auch fliegende Drohnen der nächsten Generation vollautonom agieren könnten – etwa die US-Tarnkappendrohne „X-47B“oder die britischen und russischen Gegenstücke „Taranis“ und „Skat“. Ähnliches stand in einer im Januar 2014 veröffentlichten Studie des einflussreichen US-Thinktanks „Center for a New American Security“.

Die heutigen ferngesteuerten unbemannten Systeme würden schon bald von „zunehmend autonomen Systemen“ verdrängt – an Land und in der Luft, unter und über Wasser sowie im Weltraum. Das Resultat könnte nicht weniger als eine „Revolution der unbemannten Militärtechnik“ und der Kriegsführung insgesamt sein.

Streit im totales Verbot

Menschenrechtler stemmen sich mit aller Kraft gegen diese Entwicklung. Human Rights Watch (HRW) etwa hat die Kampagne „Stop Killer Robots“angestoßen, der sich inzwischen 53 nicht-staatliche Organisationen aus 25 Ländern sowie diverse Wissenschaftler angeschlossen haben, darunter Sharkey.

Vor kurzem hat HRW mit dem Bericht „Losing Humanity“ für Schlagzeilen gesorgt. Die Forderung nach dem Killerroboter-Verbot wird darin unter anderem damit begründet, dass „vollständig autonome Waffen nicht imstande wären, gesetzliche Standards einzuhalten“.

Sollte das aber stimmen, wären Kampfroboter auch nach dem heute geltenden humanitären Völkerrecht schon illegal, argumentieren Juristen wie etwa Michael Schmitt, Völkerrechtsprofessor am Human Rights Watch (HRW) und an der britischen Durham University. Deshalb bedürfe es keines weiteren Verbots, argumentiert Schmitt in einer Replik auf das HRW-Papier.

Auch Arkin hält ein totales Verbot autonomer Kampfroboter für verfrüht. Er könnte sich eher ein Moratorium vorstellen – „bis wir genauer wissen, ob es Robotern gelingen kann, sich besser an das Kriegsrecht zu halten als Menschen.“ Natürlich sei das ein enormes technisches Problem. „Aber ich habe noch keinen Beweis dafür gesehen, dass es unlösbar ist.“

Würde es weniger Tote geben?

Für Wolfgang Richter, ehemaliger Bundeswehr-Oberst und inzwischen bei der Berliner Stiftung Wissenschaft und Politik tätig, geht in der Debatte einiges an der Praxis vorbei. Denn immerhin, betont Richter in Kopenhagen, gebe es auch noch militärische Befehlshaber – und die würden es Maschinen kaum gestatten, außerhalb jeder Kontrolle zu operieren.

„Roboter führen Funktionen aus, die von Menschen entworfen wurden und kontrolliert werden“, sagt Richter. Nützlich könnten sie in Situationen sein, in denen sie planbare Aufgaben erledigen, in denen sie dem Menschen aufgrund ihrer technischen Fähigkeiten überlegen sind, und in denen potenzielle Ziele leicht und klar identifizierbar sind. Für solche Einsätze aber, sagt Richter, „müssen Roboter keine eigenständigen ethischen Entscheidungen treffen können“.

Sharkey ist dagegen davon überzeugt, dass autonome Roboter volle moralische Urteilskraft haben müssten, um selbstständig schießen zu dürfen – und das werde wahrscheinlich nicht möglich sein. Ein Roboter könne keine eigene Moral entwickeln, sondern bestenfalls den ethischen Vorstellungen seines Programmierers folgen.

David Rodin, Kriegsethiker an der University of Oxford, sieht die alles entscheidende Frage darin, ob der Einsatz autonomer Roboter in Konflikten die Zahl der Toten senken könnte. Zwar würde die Maschine, wenn sie einen Menschen verschone, dies nicht aus Mitgefühl oder eigenen moralischen Erwägungen tun. „Das Menschen aber womöglich aus den falschen Gründen gerettet werden“, meint Rodin, „ist ein eher schwaches Argument.“

Quelle: http://www.t-online.de/nachrichten/militaer-special/id_69993094/autonome-waffen-wie-roboter-den-krieg-menschlicher-machen-sollen.html

Gruß an die Zyniker

TA KI