Mittwoch, 28. November 2012

Werden Kriege durch autonome Waffensysteme schrecklicher?


Werden Kriege durch autonome Waffensysteme schrecklicher?

Florian Rötzer 28.11.2012

Ein Bericht der Menschenrechtsorganisation Human Rights Watch warnt vor dem "Verlust der Menschlichkeit" und verklärt das Verhalten und die Emotion der Menschen

 

 
Figure 01 -- Armed Talon MAARS robot (Foster-Miller


Figure 02 -- Future Combat Systems

die Menschenrechtsorganisation einen Bericht, der sich dagegen wendet, dass autonome Kampfroboter entwickelt werden. Im Hintergrund der Kritik steht auch hier wie üblich die Annahme, dass mit den kalten und unbarmherzigen Robotern Kriege schrecklicher werden würden, als wenn Menschen andere Menschen beschießen oder mit anderen Mitteln angreifen. "Losing Humanity" ist der Bericht überschrieben, der letztlich fordert, dass Menschen weiter Roboter steuern sollen, um Zivilisten im Krieg zu schützen, und dass die Entwicklung, die Herstellung und der Einsatz von autonomen Kampfrobotern völkerrechtlich verboten werden sollte.


Von KI gesteuerte Roboter hätten, so die Begründung, nicht die "menschlichen Qualitäten, die erforderlich sind, um die Regeln des internationalen humanitären Rechts einhalten zu können". Einmal selbst angenommen, alle Menschen hätten diese "Qualitäten", so werden diese doch massenhaft verletzt. Menschen steuern wie jetzt US-Soldaten oder CIA-Mitarbeiter unbemannte Kampfdrohnen und töten dabei auch Zivilisten, ganz zu schweigen davon, dass sich Regierungen das Recht herausnehmen, Verdächtige in einer militärisch verkleideten Willkürjustiz auch dann zu exekutieren, wenn sie keine unmittelbare Bedrohung darstellen. Und wenn man den Blick auf Syrien wirft, dann sind keine autonomen Kampfroboter notwendig, um schwere Menschenrechtsverletzungen und gnadenlose Bombardierungen zu begehen. 

Roboter, so heißt es bei Human Rights Watch, würden nicht zurückgehalten von "menschlichen Emotionen und der Fähigkeit des Mitleidens", aber Menschen können auch andere Menschen quälen, foltern und niedermetzeln, mitunter auch an der Lust, den Mitmenschen zu erniedrigen, Herr über den anderen zu sein, Schmerzen zuzufügen und Lust am Leiden zu empfinden. Und haben die Menschen nicht auch kaltblütig und dennoch besessen, systematisch Völkermord begangen, als wären sie Maschinen? Haben nicht Menschen Atombomben über Millionenstädten abgeworfen und massenhaft Zivilisten getötet, verwundet und ihnen durch die Radioaktivität Leid zugefügt? Menschen mit Emotionen kapern Passiermaschinen und steuern sie in Hochhäuser oder sie sich durch Sprengstoff oder andere Mittel möglichst viele Mitmenschen in den Tod zu reißen.
Was heißt ihr "Angemessenheit" von Angriffshandlungen im Rahmen des Kontextes? Verklärt werden die Menschen, denen im Gegensatz zu den Robotern und ihrer KI unterstellt wird, sie könnten gleichzeitig rational und emotional die Regeln einhalten, die sie einhalten sollen. Das tun sie nicht und können sie nicht. Nach der Logik und Argumentation von HRW müsste es eigentlich nicht darum gehen, autonome Waffensysteme zu verbieten, sondern Kriege überhaupt, egal ob zum Töten ausgebildete Menschen, von Menschen kontrollierte oder autonome Waffensysteme eingesetzt werden.
 
weiterlesen:

Keine Kommentare:

Kommentar veröffentlichen