DE | EN
Sitemap | Impressum
web2.0 Diaspora Vimeo Wir in der taz Wir bei Mastodon A-FsA Song RSS Twitter Youtube Unsere Artikel bei Tumblr Unsere Bilder bei Flickr Aktion FsA bei Wikipedia Spenden Facebook Bitmessage Spenden über Betterplace Zugriff im Tor-Netzwerk https-everywhere
19.01.2024 KI in der Kriegsführung

Verbot von Waffenentwicklung mit ChatGPT aufgehoben

"Don't use our service to harm yourself or others." So steht es jetzt in den AGB von ChatGPT von OpenAI. Bis zum 10. Januar 2024 war die Distanzierung von der militärischen Nutzung von KI viel deutlicher. Da hieß es noch

"nutz unsere Dienste nicht, um Selbstmord oder Selbstverletzungen zu bewerben, Waffen zu entwickeln, andere oder das Eigentum anderer zu verletzen oder um dich an nicht autorisierten Aktivitäten zu beteiligen, die die Sicherheit von anderen oder anderen Systemen gefährden."

Wie gefährlich KI-gesteuerte Militärtechnik sein kann, zeigt schon ein Szenario, das in den Drohneneinsätzen des US Militär häufig geschieht. Die Drohnen sind so programmiert (noch ganz ohne KI), dass sie bei Verlust der Kommunikation zur Bodenstation zum Startflugplatz zurück zu kehren haben. Wenn sie diesen anfliegen, könnten sie aber auch gehackt sein und diesen Standort angreifen wollen. Mindestens der Adrenalinspiegel der dort Stationierten geht beim Anflug in die Höhe.

KI darf keine Entscheidungen über Leben und Tod treffen

Grundsätzlich sollten Menschen stets die Entscheidungsgewalt über Maschinen behalten. Das sollte eine notwendige Forderung sein, aber sie ist nicht hinreichend. Allein schon die Datenflut, mit der Computerprogramme und erst recht solche mit KI die Menschen überfordern, birgt die Gefahr, dass auch die menschlichen Entscheidungen nicht mehr auf einer rationalen Ebene fallen, sondern manipuliert sein können. 

Ganz grundsätzlich darf nach unserer Ansicht KI nicht für militärische Zwecke und die Überwachung von Menschen, z.B. bei Anwendungen der "kritischen Infrastruktur" oder Strafverfolgung (PreCrime) verwendet werden.

Mehr dazu bei https://www.heise.de/news/ChatGPT-fuer-das-Militaer-OpenAI-aendert-Verbots-Passus-9596604.html


Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3yu
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8655-20240119-ki-in-der-kriegsfuehrung.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8655-20240119-ki-in-der-kriegsfuehrung.html
Tags: #KI #AI #Kriegsführung #ChatGPT #AGB #Militärtechnik #Entscheidungsgewalt #Mensch #Maschine #Drohnen #Frieden #Krieg #Menschenrechte #Zivilklauseln #Cyberwar #Hacking
Erstellt: 2024-01-19 09:31:52
Aufrufe: 217

Kommentar abgeben

Für eine weitere vertrauliche Kommunikation empfehlen wir, unter dem Kommentartext einen Verweis auf einen sicheren Messenger, wie Session, Bitmessage, o.ä. anzugeben.

Geben Sie bitte noch die im linken Bild dargestellte Zeichenfolge in das rechte Feld ein, um die Verwendung dieses Formulars durch Spam-Robots zu verhindern.

CC Lizenz   Mitglied im European Civil Liberties Network   Bundesfreiwilligendienst   Wir speichern nicht   World Beyond War   Tor nutzen   HTTPS nutzen   Kein Java   Transparenz in der Zivilgesellschaft

logos Mitglied im European Civil Liberties Network Creative Commons Bundesfreiwilligendienst Wir speichern nicht World Beyond War Tor - The onion router HTTPS - verschlüsselte Verbindungen nutzen Wir verwenden kein JavaScript Für Transparenz in der Zivilgesellschaft