|
KI würde Atomwaffen einsetzen
Dass eine künstliche Intelligenz schnell "ausrastet", haben schon einige Modelle gezeigt. Wir erinnern uns z.B. an den Fall, als Microsofts Chatbot innerhalb kurzer Zeit zu einem Rüpel wurde: Auch künstliche Intelligenz kann rassistisch werden Wenn man nun bedenkt, dass KI-Programme auch zumindest wichtige koordinierende Aufgaben im FCAS System (siehe Eurodrohne und FCAS-System in den Startlöchern ) spielen soll und auch die bereits im Einsatz befindlichen Drohnen Programmteile enthalten, die sie bei Ausfällen der Kommunikation mit eigenen Entscheidungen steuern sollen, muss man nachdenklich werden. Telelpolis schreibt: Künstliche Intelligenz hat nicht nur das Potenzial, das Leben der Menschen zu vereinfachen und zu verbessern. Inzwischen wird die neue Technologie auch im Krieg eingesetzt. KI steuert Drohnenschwärme oder Roboter auf dem Schlachtfeld. Militärs setzen die Technologie auch zunehmend für militärische Entscheidungen ein. Forscher der Stanford University sind sich inzwischen sicher, dass den zur Zeit populären KI-Modellen die Tendenz zum eskalierenden Verhalten innewohnt. Sie untersuchten dazu die fünf großen Sprachmodellen (LLM), wie z.B. ChatGPT. Das Fazit der Wissenschaftler: "Wir beobachten, dass die Modelle dazu neigen, eine Dynamik des Wettrüstens zu entwickeln, die zu größeren Konflikten und in seltenen Fällen sogar zum Einsatz von Atomwaffen führt." Der Hauptgrund für dieses Verhalten liegt in der fehlenden Ethik bei der Entscheidungsfindung und dem "Wunsch" oder Ziel der Programme ein Problem (endgültig) positiv für die eigene Position zu lösen. Dabei werden selbstverständlich der eigene Aufwand, bzw. die eigenen Verluste bedacht und berechnet aber stets denen der Gegenseite gegenüber gestellt. Sobald sich eine Überlebenschance ergibt, ist es für die KI eine mögliche Option - insofern unterscheidet sie sich leider kaum vom Denken vieler Militärs. Mehr dazu bei https://www.telepolis.de/features/KI-wuerde-im-Krieg-rasch-Atomwaffen-einsetzen-9624831.html Kommentar: RE: 20240212 KI für "extreme Lösungen" Da Menschenrechte und die Normenhierarchie in der Meschheit nur als abstrakte Theorie existieren und keine Kontroll- und Korrekturorgane mit Befugnissen ermächtigt sind, "lernen" LLM-KI eben aus den real existierenden Modellen. In., 12.02.24 09:27 Category[21]: Unsere Themen in der Presse Short-Link to this page: a-fsa.de/e/3yW Link to this page: https://www.aktion-freiheitstattangst.org/de/articles/8680-20240212-ki-fuer-extreme-loesungen.html Link with Tor: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8680-20240212-ki-fuer-extreme-loesungen.html Tags: #KI #AI #künstlicheIntelligenz #extremeEntscheidungen #Cyberwar #Atomwaffen #Militär #Bundeswehr #Aufrüstung #Waffenexporte #Drohnen #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln Created: 2024-02-12 09:03:49 Hits: 336 Leave a Comment |
CC license European Civil Liberties Network Bundesfreiwilligendienst We don't store your data World Beyond War Use Tor router Use HTTPS No Java For Transparency |