KI kann schneller töten
Gestern haben wir vor Atomwaffen gewarnt, die mittels künstlicher Intelligenz zielgenauer und schneller werden sollen und heute lief uns ein Artikel von vergangener Woche über den Weg, der vermutet, dass autonome Drohnen erstmals selbstständig menschliche Ziele angegriffen haben.
Ein Bericht der UNO (550 Seiten) über Libyen vom letzten Jahresende über militärische Vorkommnisse und die Lieferanten der Waffen an die dortigen Konfliktparteien beschreibt u.a. einen Einsatz türkischer Kargu-II Drohnen über der libyschen Hauptstadt Tripolis. Der Spiegel schreibt: "Eine Drohne vom Typ Kargu-2 habe bei einem Gefecht libyscher Regierungstruppen gegen eine abtrünnige Militärfraktion einen Konvoi auf dem Rückzug 'gejagt und aus der Ferne angegriffen', so die Uno."
Kargu-II Drohnen werden ohne ein bestimmtes Ziel gestartet und werten mit ihrer Software Daten aus, die sie im Flug sammeln. Aus diesen Daten und vorgegebenen Mustern lernen sie geeignete Ziele zu identifizieren. Dorthin versuchen sie ihre Sprengladung zu bringen. Die UNO nennt sie deshalb eine tödliche autonome Waffe. Im Einzelfall lässt sie sich aber auch durch Funk auf ein bestimmtes Ziel programmieren. Ob sie bei dem genannten Vorfall autonom oder mittels einer Datenverbindung zwischen Bodenkontrolle und Drohne ihr Ziel angreifen konnte, ist nicht bekannt.
Der "New Scientist" zitiert den Sicherheitsberater Zak Kellenborn, einen Experten für unbemannte Waffensysteme mit den Worten: "... es handele sich um den ersten Vorfall, bei dem Drohnen Menschen ohne Anweisung angegriffen hätten."
Erst im letzten Herbst hatte die UNO zu einem Tribunal über lethale autonome Waffensysteme geladen. Diverse Gruppen der Friedensbewegung kämpfen seit Jahren gegen die Entwicklung KI-gestützter Waffen, insbesondere bewaffneter Drohnen. Die niederländische Friedensorganisation Pax for Peace hat 10 einleuchtende Argumente gegen diese gefährliche Entwicklung formuliert.
10 reasons to ban killer robots
Fully autonomous weapon systems, also called killer robots, are weapon systems that can select and engage individual targets, without meaningful human control. There are various concerns regarding these weapons:
Ethical concerns
1. A machine should never be allowed to make the decision over life and death. This goes against the principles of human dignity and the right to life. This decision cannot be reduced to an algorithm. Outsourcing this decision would mean outsourcing morality.
Legal concerns
2. Fully autonomous weapons are unlikely to be able to adhere to International Humanitarian Law. It is unlikely that they will be able to properly distinguish between civilians and combatants, or tomake a proportionality assessment.
3. Fully autonomous weapons create an accountability vacuum regarding who is responsible for an unlawful act. Who would be responsible: the robot, the developer or the military commander?
Security concerns
4. While the deployment offully autonomous weaponsmight reduce military casualties, it could lower thethreshold for the use of force. It also reduces the incentive to find political solutions to end conflicts.
5. This new technology could lead to a new international arms race, which would have destabilising effects and threaten international peace and security.
6. These weapons could lead to accidental and rapid escalation of conflictas fully autonomous weapons react and interact with each other at speeds beyond human control.
7. In contrast to for example nuclear weapons, the technology is likely to be relatively cheap and simple to copy. This would increase proliferation risks and thus enable dictators, non-state armed actors or terrorists to acquire fully autonomous weapons.
8. Because of their nature these weapons could be highly unpredictable, especially in their interaction with other autonomous systems and if they are capable of self-learning.
9. Only a small number of people are needed to deploy a large number of fully autonomous weapons, raising concerns about prevention, oversight and control.
10. As with armed drones, deploying fully autonomous weapons instead of human soldiers may incense the population of the targeted state, potentially working against the interests of the attacking state.
Mehr dazu bei https://www.spiegel.de/wissenschaft/technik/autonome-waffe-koennte-menschen-erstmals-eigenstaendig-angegriffen-haben-a-ad06b93d-191c-4a5f-b4ae-853e7a7a177d
und https://www.newscientist.com./article/2278852-drones-may-have-attacked-humans-fully-autonomously-for-the-first-time/
und 10 Gründe gegen autonome Waffensysteme https://paxforpeace.nl/media/download/pax-ten-reasons-to-ban-killer-robots.pdf
und http://www.stopkillerrobots.org/
Kommentar: RE: 20210615 Erstes autonomes Töten getestet?
Dazu passt ja wohl auch die Meldung, dass die oliv-Grünen auf ihrem Parteitag am Wochenende den Einsatz bewaffneter Drohnen nicht ausschließen möchten.
Friedenspolitik sieht anders aus!
Merwan, 15.06.21 10:02
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3gr
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/7674-20210615-erstes-autonomes-toeten-getestet.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/7674-20210615-erstes-autonomes-toeten-getestet.htm
Tags: #Kargu-II #autonomesTöten #KI #AI #künstlicheIntelligenz #UNO #Militär #Aufrüstung #Waffenexporte #Drohnen #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln #Fehlentscheidungen
Erstellt: 2021-06-15 08:54:15 Aufrufe: 841
Kommentar abgeben