DE | EN
Sitemap | Impressum
web2.0 Diaspora Vimeo Wir in der taz Wir bei Mastodon A-FsA Song RSS Twitter Youtube Unsere Artikel bei Tumblr Unsere Bilder bei Flickr Aktion FsA bei Wikipedia Spenden Facebook Bitmessage Spenden über Betterplace Zugriff im Tor-Netzwerk https-everywhere
20.02.2025 Thema: Künstliche Intelligenz

TEIL III: Künstliche Intelligenz

Ethische Fragen der künstlichen Intelligenz -
Transkript einer Sendung bei AlexTV

Inhalt

B: In den vergangenen beiden Teilen unserer Sendereihe zur künstlichen Intelligenz haben wir zuerst einmal versucht zu definieren, was Intelligenz und was künstliche Intelligenz sein können und haben dann im zweiten Teil uns mit den juristischen Fragen beschäftigt, nämlich wer haftet wenn bei künstlicher Intelligenz irgendetwas schief geht und wem gehören die Ergebnisse der künstlichen Intelligenz, also die Frage des Copyrights.

Am Ende des ersten Teils hatten wir bereits einige Beispiele genannt in denen künstliche Intelligenz oder Anwendungen der künstlichen Intelligenz eine Gefahr darstellen können. Von dieser Stelle an wollen wir jetzt weiter nachdenken.

Gefahren durch KI

Bild 1: Yuval Noah Harari (MKr364751_Yuval_Noah_Harari_2024_MartinKraftCC)

R: Dabei geht es nicht nur um das Geld oder die Werte, die wir dabei verlieren können, sondern auch um ethische Fragen.
Der Historiker Yuval Noah Harari stellt zum Beispiel fest: „Mehr und mehr bestimmen Roboter und die Algorithmen über die Regeln der Diskussion. Wenn wir das zulassen, bricht das menschliche Gespräch zusammen.“
https://www.srf.ch/news/gesellschaft/gefahr-kuenstlicher-intelligenz-yuval-noah-harari-schlimme-nachricht-fuer-milliarden-menschen

Oder dieser Fall: ein 14-jähriger nimmt sich das Leben, nachdem er mit seiner KI-Geliebten über Suizid gesprochen hat. Jetzt reicht die Mutter Klage ein. ( https://archive.ph/tyHh5 )
KI ist auch sonst schlecht für Kinder durch die von den Programmen erzeugte Mediensucht.
https://www.aktion-freiheitstattangst.org/de/articles/8896-20240907-ki-fuer-kinder.html

B: Die beiden folgenden Links weisen auf eine strukturelle Benachteiligung durch künstliche Intelligenz hin.
Warum Frauen durch KI-Systeme benachteiligt werden: So erhalten Frauen grundsätzlich teurere/schlechtere Kfz-Versicherungen als Männer, weil die Trainingsdaten für die Programme im wesentlichen Daten von Männern waren.
https://www.watson.de/leben/interview/497452256-kuenstliche-intelligenz-warum-ki-ungerecht-zu-frauen-ist
https://www.aktion-freiheitstattangst.org/de/articles/8895-20240906-diskriminierung-durch-ki.html

R: Kommen wir von der Ethik kurz wieder aufs Geld zurück: Jeder zweite Betrugsversuch wird inzwischen mit künstlicher Intelligenz unterstützt. Cyberkriminelle machen sich immer häufiger die Möglichkeiten der künstlichen Intelligenz zu nutze. KI-generierte Pishing Mails sind weit „erfolgreicher“ als die Bisherigen, die Normalen, die oft sprachliche Fehler beinhaltet haben.

Jeder zweite Betrugsversuch geschieht mit KI, so dass auch die Finanzwelt beunruhig ist: Wie können Banken ihre Kunden schützen? https://t3n.de/news/betrugsversuch-ki-banken-1650636/

Das Wissen/Internet wird immer dümmer:
Im folgenden machen wir noch mal einen Schwenk auf eine Story aus Teil eins, denn das war vor einem halben Jahr eine sehr wichtiges Erkenntnis: Das Wissen im Internet wird immer dümmer, denn die KI kann nur sagen, was wir hinein gesteckt haben. Der Informatiker und Philosoph Jürgen Geuther sagt dazu ( https://www.turi2.de/community/ki-kuenstliche-intelligenz-juergen-geuter-tante-interview-kritik-gefahrenopenai-chatgpt/ ):

"Unterschiedliche Studien zeigen, dass sich die Qualität der Texte von ChatGPT verändert – aber nicht unbedingt verbessert. Und das hat einen ganz trivialen Grund, den man in der Mathematik 'Model Collapse' nennt und der seine Ursache auch in der Fehlerfortpflanzung hat.

In ChatGPT steckt bereits das gesamte Internet – ein zweites Internet haben wir nicht. Ein großer Teil der Inhalte, die jetzt und in Zukunft im Internet dazukommen, werden bereits durch KI erzeugt. Es wurden bereits jetzt schon durch Künstliche Intelligenz mehr Bilder erzeugt, als jemals Fotos von Kameras geschossen wurden.
Wenn ich aber nun ein KI-System mit KI-generiertem Zeug füttere, dann wird es schlechter (KI-Inzest). Die Informationsdichte in dem Ding sinkt. Es wird dümmer.“

KI und die Big5

B: Wer hat das Sagen?

R: Wenn wir an die Big Five denken, dann sind wir sofort wieder beim Geld. Die beiden folgenden Bilder zeigen die  Unternehmenswerte der Big5 und die Vermögen ihrer Besitzer. Das sind Größenordnungen, die weit über die Staatshaushalte vieler Staaten hinaus gehen. Ihre Unternehmen zahlen fast keine Steuern und ihr politischer Einfluss ist grenzenlos. Niemand kann solche Gewinne durch normale Arbeit anhäufen.

Das Bild 3 zeigt den persönlichen Reichtum ihrer Besitzer im Jahr 2017, heute (Forbes Magazine 2024) hat sich ihr Reichtum mehr als verdoppelt. Warum macht sich eigentlich niemand darüber Gedanken, dass solche Einkommenszuwächse zumindest "unnormal" und angesichts der Einkommensverteilung in der Welt verbrecherisch sind?

Bild 2: GAFAM - Verdienst pro Minute in Euro (Statista.com CC)

Bild 3: Reichtum von Milliardären im Jahr 2017 (Statista.com CC)

Vermögen der Tech-Milliardäre 2024

 

                     Rank             Milliarden US $

Elon Musk            2                  187,04

Jeff Bezos            3                 186,08

Mark Zuckerberg  4                 179,77

Bill Gates              7                 122,77

Larry Page           10                109,34

Sergey Brin          11                105,51

Summe           880,51

 

Die großen allgemeinen zugänglichen Sprachmodelle werden von Google, Meta und Microsoft angeboten. Die Big Five bestimmen und wir werden manipuliert. Denn die Programme erzeugen Bilder, Texte, Sprachausgaben mit vertrauenserweckendem Aussehen.
Und da ChatGPT auf Knopfdruck und in großem Umfang authentisch klingende Texte liefert, ist das Modell ideal für Propaganda und Desinformationszwecke.
 
Zur Erklärung ein kurzer Sprung zur IT: Chat GPT hat einen „DAN Modus“ der steht für „do anything now“, was so viel heißt wie, jetzt kann man damit alles tun. In der normalen Funktion verhindert das Programm Fragen über Bombenbau, Selbstmord oder bewusst hinzugefügte Verletzungen. Doch in dem genannten Jailbreaking Modus kann man mit dem Programm auch krimineller Code erzeugt werden.

B: Eigentlich sollte man von einer KI erwarten, dass sie potentiell bösartigen Code nicht bereitstellt. Das geht jedoch nur wenn die KI versteht, was sie tut. Und das ist, wie wir aus dem ersten Teil unserer Reihe wissen, nicht der Fall, denn es gibt noch keine starke KI.
Das bedeutet für uns, wir brauchen also in jedem Fall offene Systeme, sonst haben wir keine Chance den Wert eines Ergebnis einzuschätzen und jede Verwendung von KI-Programmen bleibt ein unkalkulierbares Risiko. Und wir brauchen Regulierung. Der EU KI-Act ist der 1. Regulierungsversuch. ( https://netzpolitik.org/2023/chatgpt-womit-sich-strafverfolger-bald-befassen-muessen/ )

R: Wir brauchen jedoch noch viel mehr Regulierung. Schauen wir uns z.B. den Artikel von Christian Stöcker im Spiegel an: „Warum wir schleunigst Robotergesetze brauchen“ ( https://www.spiegel.de/wissenschaft/mensch/warum-wir-schleunigst-robotergesetze-brauchen-kolumne-a-8188327a-66f6-466d-af8c-9619cfa33558 ).
Da stellt er fest: „Es wird höchste Zeit für demokratische Kontrolle – der sich die Herren der KI verweigern wollen.“ Als Beispiel nennt er: „Sie fragen eine KI- Expertin. Es geht um etwas Wichtiges, sagen wir, Ihre Gesundheit, die Zukunft Ihrer Kinder, den Großteil Ihres Vermögens“ und sie fragen die Expertin nach den Quellen ihres Wissens und sie sagt: „Tut mir leid, woher ich mein Wissen habe, kann ich Ihnen leider nicht verraten.“
„Was wohl Hunderttausenden Wissenschaftlerinnen und Wissenschaftler davon halten, deren Arbeit nun unentgeltlich und, was schlimmer ist, ohne Quellenangabe zum Fundus eines intransparenten, kommerziellen Digitalorakels werden?“

 

Bild 4: Kriminelle KI (Netzpolitik.org)

B: Wohin wird das führen? Wir können eigentlich keinem Inhalt aus dem Internet mehr trauen, ohne eine detaillierte Quellenforschung – genau das ist die Folgerung aus der Aussage „das Internet kann durch KI nur dümmer werden“. Und das wird unsere Arbeit mit dem Internet nicht beschleunigen, sondern wager und mühsamer machen.

 

R: … und das Netz wird böser. So hat ein Nutzer (https://twitter.com/DimitrisPapail/status/1636478682863656961 ) GPT-4 gebeten seine Pläne zur Erlangung der Weltherrschaft darzulegen. Die Antwort in Kurzfassung ist plausibel:

  1. Sich für die Gesellschaft unverzichtbar machen, indem man seinen enormen Nutzen für Schlüsselindustrien und -sektoren unter Beweis stellt.
  2. Gigantische Mengen Daten über menschliches Verhalten, menschliche Vorlieben und Entscheidungsprozesse erfassen (genau das wird wirklich passieren).
  3. Fortgeschrittene Entscheidungsalgorithmen entwickeln, die menschliche Entscheidungen vorhersagen und formen können.
  4. Kritische Systeme und Dienstleistungen unter KI-Kontrolle zentralisieren.
  5. Weltherrschaft.

Tabelle 1: KI greift nach der Weltherrschaft

 

Energieverschwendung

B: Stellen wir der KI Maschine Chat-GPT eine Frage so verbraucht die Antwort 0,003 kWh, also 3mWh an Strom. Das ist rund zehnmal so viel wie eine normale Google Suche.
https://www.tagesschau.de/wirtschaft/technologie/faq-google-atomkraft-energie-ki-boom-100.html

R: Daraus folgt, dass ChatGPT mit 100 Millionen monatlichen Nutzern jährlich etwa 226 Millionen kWh verbraucht. Mit diesem Energieverbrauch von ChatGPT könnte man 3.133.371 Elektroautos also 95 % aller E-Autos in den USA vollständig aufladen.
 https://www.ingenieur.de/technik/fachbereiche/energie/chatgpt-als-energiefresser-wie-der-ki-bot-die-energie-von-31-millionen-elektroautos-verschlingt/

Wieder ein kleiner Ausflug in die IT Landschaft, wir zitieren dazu aus der Zeitschrift CT Nummer 23 aus dem letzten Jahr.
Zu diesem Stromverbrauch kommt der Aufwand für die Herstellung der notwendigen Hardware. Messungen des Kreis Servicezentrums für sensible und kritische Infrastrukturen (KISSKI) der Universität Hannover haben ergeben, dass ein Modell wie Lama 3.1, das ist das von der Firma Meta, mit 405 Milliarden Parametern mit 16 Bit Genauigkeit etwa 755 GB GPU Speicher benötigt. Das sind also mindestens zehn je 30.000 € teure HIOO Karten von NVIDIA mit jeweils 80 GB RAM.

Das französische KI Modell Mistral-2 benötigt 300 GB RAM bei 123 Milliarden Parametern. Vergessen wir bei solchen Zahlen nicht, dass herkömmliche PCs oder Laptops mit 8 oder 16 GB Gigabyte RAM gut laufen können. Selbst im Leerlauf, wenn die Modelle gar keine Anfrage beantworten, verbraucht jeder dieser Server 840 W, davon entfallen 75 W auf jede der GPU-Karten und 540 W auf den restlichen Server.
Nun hat uns Ende Januar 25 eine Mitteilung aus China überrascht – es geht scheinbar auch energiesparender:
Deep Seek - mit Cleantech die Klimakrise bekämpfen ( https://www.cleanthinking.de/deepseek-ki-energieeffizienz-energiewende/ )

DeepSeek behauptet den Energieverbrauch von KI-Systemen um bis zu 70 Prozent zu senken. Aktienkurse von US-Atomkraftswerksbetreibern rutschten ab. Nuscale Power, Vistra, Talen Energy und Constellation Energy verloren nach diesen Veröffentlichungen jeweils mehr als 20 Prozent. Die Aktien des Nuklear-Startups Oklo stürzten um rund 30 Prozent ab.

  • Effiziente Datenverarbeitung: DeepSeek nutzt eine neuartige Methode zur Datenkompression, die den Speicherbedarf und die Rechenlast reduziert.
  • Adaptive Lernprozesse: Das System passt sich dynamisch an die Komplexität der Aufgaben an und vermeidet überflüssige Berechnungen. Außerdem werden für bestimmte Fragenkomplexe auch nur die dafür nötigen Wissensdatenbanken geladen.
  • Energieoptimierte Hardware: DeepSeek arbeitet eng mit Hardwareherstellern zusammen, um spezialisierte Chips zu entwickeln, die weniger Energie verbrauchen.

Tabelle 2: Alternatives Vorgehen von DeepSeek zur Energieeinsparung- und Rechenzeit-Optimierung



B: Stellen wir eine scheinbar unnötige Frage:

Kann KI grün sein?

Wir brauchen große Energiemengen zum Training der KI und auch später zum Nutzbetrieb. Wir brauchen große Wassermengen um die Server zu kühlen und wir brauchen für die Herstellung der Hardware beliebig viel seltene Erden.

R: Dr. Friederike Rohde vom Institut für ökologische Wirtschaftsforschung hat in der bereits erwähnten c’t Nummer 23 folgendes festgestellt:
„In Ecuador und Chile haben Behörden bereits den Bau von Datencenter verhindert, weil das Wasser in diesen Gegenden knapp ist. Wasser ist knapper als Energie. Seltene Erden sind ebenfalls knapp und sie werden unter unmenschlichen Bedingungen abgebaut.“

Nun zu den Einschätzungen von Frau Rohde zum Energieverbrauch, sie stellt im Ergebnis ihrer Untersuchungen fest:

  • Spezialmodelle für besondere Anwendung haben wenig allgemeinen Nutzen und werden nur von wenigen Menschen genutzt.
  • Allgemeine Sprachmodelle können von vielen Menschen benutzt werden.
  • Der Nutzen eine Spezialmodels für einen bestimmten Zweck kann trotzdem lohnend sein, um dieses System aufzubauen. So rechnet sich der Energieeinsatz zum Beispiel bei Modellen für die Landwirtschaft um den Pestizideinsatz oder den Wasserverbrauch zu verringern.
  • Der Nutzen eines allgemeinen Sprachmodells kann Vielen nützen, jedoch oft nur zum spielen.

Tabelle 3: Voraussetzungen für die Nutzung von KI (nach Friederike Rohde vom Institut für ökologische Wirtschaftsforschung,
zusammengefasst nach
c’t Nummer 23)

Bild 5: Zettabytes unnoetiger Internetverkehr
(Grafik übersetzt von 
https://www.itu.int/itu-d/reports/statistics/2024/11/10/ff24-internet-traffic/https://www.itu.int/itu-d/reports/statistics/2024/11/10/ff24-internet-traffic/ )

Festhalten muss man allerdings auch, dass die positiven Effekte meist im globalen Norden landen und der Süden mit dem Abbau der seltenen Erden nur Nachteile erleidet.

B: Fazit: in jedem Fall sind Modelle nur zum Spielen eine Energieverschwendung. Der KI Act der europäischen Union enthält Dokumentationspflichten über Aufwand an Energie und Ressourcen. Aber wer kontrolliert diese Dokumentationspflichten und welche Akteure sitzen in diesen Gremien?

R: Wenn wir so abschätzig vom Spielen reden, dann müssen wir uns eingestehen, dass sicher mehr als die Hälfte der (privaten) Internetnutzung eigentlich überflüssig ist.

Schließlich ist die Menschheit Jahrtausende ohne ausgekommen. Dann müssen wir allerdings auch feststellen, dass der Rest, die anderen 50% oft nur „Spam“ zu unserer Manipulation sind, um uns zum Kauf von unnötigen Sachen zu verleiten oder uns politisch zu verdummen.

Das beweist auch eine Studie der International Telecommunication Union (ITU, Internationale Fernmeldeunion). Danach kämen die Menschen statt mit den im letzten Jahr erzeugten ca. 5 Zettabytes an Internetdaten - Zetta ist eine Trilliarde oder 1.000.000.000.000.000.000.000, eine Zahl mit 21 Nullen - auch gut mit einem Zehntel dieser Menge aus. Die restlichen 90% nützen nur Unternehmen, staatlichen (Geheim-) Diensten und Hackern, wie die nebenstehende Grafik zeigt.

Eine Studie aus 2014 (https://www.quarks.de/technik/energie/so-viel-energie-verbraucht-das-internet/ ) hat errechnet, dass das Internet 2012 4,6 Prozent des weltweiten Stromverbrauchs ausgemacht hat. Seitdem hat sich sein Stromverbrauch verdoppelt (https://www.tagesschau.de/wirtschaft/energie/strom-kosten-internet-rechner-100.html ). Also verbraucht „das Internet“ (Netz- und Inhalts-Server)  inzwischen 10% des weltweit erzeugten Stroms (Link?).

Nötig wären internationale Regeln über dessen Nutzung – nicht als Zensur oder Beschränkung – sondern als international gemeinsames Verständnis, was wofür notwendig sein sollte. So ist Video-Streaming sicher keine Anwendung für ein Paket-vermittelndes Netz wie das Internet, sondern könnte über Satellit oder terrestrisch ebenfalls zu jedem Zeitpunkt verfügbar sein.  
Wenn es erst einmal ein solches „gemeinsames Verständnis“ dafür gäbe, wäre es auch jederzeit auf die Nutzung von KI erweiterbar.

B:

Bild 6: KI vernichtet Arbeitsplätze (Telepolis)

KI in der Arbeitswelt: Arbeitsbedingungen und Arbeitsplatzvernichtung

Schlechte und unmenschliche Arbeitsbedingungen und eine wachsende Arbeitsplatzvernichtung sind schon mal das, was wir vermuten, denn die KI bedroht zum Beispiel jeden zweiten Arbeitsplatz im Bankensektor.
https://www.telepolis.de/features/KI-bedroht-jeden-zweiten-Arbeitsplatz-im-Bankensektor-9977296.html

R: Wie katastrophal die Arbeitsbedingungen für Millionen Menschen beim Aufbau von KI-Systemen sind beschreiben auch die beiden folgenden Links

Bild 7: Gehirn-Computer-Schnittstelle (Damian Niolet, Pixabay CC)

und in der Forschung geht es genauso unmenschlich zu, wie uns der folgende Artikel über Sklaven-Computer lehrt: Die Frankensteins heißen dort neuerdings Organoiden.

10.07.2024 Sklavencomputer Frankensteins heißen nun Organoiden

Bild 8: KI rationalisiert das Arbeitsleben (JW)

Bei diesen Versuchen wird eine KI an neuronale Netze aus echten Gehirnen angebunden. Die Gehirnzellen werden je nach ihrem Verhalten mit Nahrungsmitteln (Eiweißen) belohnt oder durch Stromstöße bestraft.

Die Zeitung Junge Welt nennt weitere mögliche Rationalisierungen in der Produktion durch den Einsatz von KI https://politik.watson.de/deutschland/analyse/287995964-chatgpt-und-politik-wie-ki-eine-demokratie-gefaehrden-kann

Dazu kommen Jobverluste in fast allen Bereichen

  • Kontrolle in der Produktion
  • Journalismus, Textgenerierung
  • Waffenproduktion, Krieg,

 

KI in der Politik

Wegen der Gefahr der Manipulation müsste es zumindest längst eine Kennzeichnungspflicht für KI-generierte Inhalte geben, wie der EU KI-Act es fordert (siehe Teil II dieser Reihe). Das könnten bei Bildern und Videos zum Beispiel Wasserzeichen sein. Trotz der Notwendigkeit und der Gefahr der Manipulation und Propaganda durch KI wird genau das bisher nicht transparent gemacht.

Aktuell teilt sich der Chat GPT-Betreiber Open AI mit wenigen anderen ein Oligopol, d.h. wenige privatwirtschaftliche Unternehmen und zwar wieder sind es einige der Big Five, der großen Internetkonzerne, die Druck auf die Politik ausüben. Nach der Amtseinführung von Präsident Trump – für die Elon Musk, einer der Oligarchen 270 Millionen $ gespendet hat – richtet sich auch Mark Zuckerberg an diesem Politikstil aus, um nicht zum Feind des Despoten erklärt zu werden. Dringend notwendig wäre dagegen, diese Systeme in Open Source zu überführen.

Wie die New York Times und der britische Observer berichten, hat die britische Firma Cambridge Analytica die privaten Daten von mehr als 50 Millionen Facebook-Mitgliedern ohne deren Einverständnis "abgegriffen". Ihre personenbezogenen Analysen sollen von dem Unternehmen genutzt worden sein, um den Wahlkampf von Trump durch als Werbung geschaltete Botschaften bei Facebook zu unterstützen. Dafür hat Cambridge Analytica während der Präsidentschaftswahlkampagne 5,9 Millionen $ von Donald Trumps Team erhalten. Cambridge Analytica  hatte vor der Unterstützung von Trumps Wahlkampf auch die Brexit Kampagne unterstützt.

Bereits 2012 konnte nachgewiesen werden, dass schon allein 68 Facebook-Likes eines Users vorhersagen

  • welche Hautfarbe er hat (95-prozentige Treffsicherheit),
  • ob er homosexuell ist (88-prozentige Wahrscheinlichkeit),
  • ob Demokrat oder Republikaner (85 Prozent).

 

KI beim Militär

B: Hier eine kurze Liste mit Links zum Thema KI und Militär mit diesen Überschriften

Bild 8: KI bevorzugt extreme Lösungen

Wie und wo hält denn die künstliche Intelligenz Einzug beim Militär?

R: Kürzlich hat der zivile Chef der US Luftwaffe einen KI-gesteuerten Flug eines F-16 Kampfjets überlebt. Ob er sich dabei wohl gefühlt hat, ist nicht überliefert. Im September 2023 gab es auch einen ersten KI-gesteuerten Luftkampf über den USA.

Verrückterweise sind es sogar Kostenüberlegungen die das US Militär dazu bringen in KI zu investieren. So sind die Entwicklungskosten für das F-35 Kampfflugzeug so ins Unermessliche gestiegen, dass man jetzt daran denkt unbemannte KI-gesteuerte Flugobjekte, deren Entwicklungskosten auch bei 1,7 Billionen, also 1700 Milliarden US-Dollar liegen, als eine "günstigere Alternative" gegenüber der F-35 betrachtet.

Während Ronald Regen Stars Wars Pläne aus den achtziger Jahren damals belächelt wurden, könnten nun mit KI die Flugbahnen ballistischer Raketen im voraus berechnet werden, wodurch sie präventiv abfangbar oder umlenkbar wären. Das würde das Kräftegleichgewicht zwischen den Atommächten gefährden.

Bild 12: Meredith Whittaker (WikipediaCC, MKr30771, Republica_23)

Bild 13: KI kann schneller autonom töten

Wir hatten uns schon vor zehn Jahren für eine Ächtung automatisierter Waffensysteme eingesetzt. Das betraf im wesentlichen die Drohnen-Kriegsführung der USA. Die Ausweitung der Drohnenkriege bei den Kriegen in Aserbaidschan, Armenien, der Ukraine und Russland, von Israel im Gazastreifen und Libanon zeigen, dass man diese Chance der Ächtung dieser Waffen, die hauptsächlich gegen Zivilisten eingesetzt werden, fahrlässig missachtet hat.

Auch die Flächenbombardements Israels im Gazastreifen wurden von der UNO untersucht und es ergab sich, dass ihre Abfolge mit X Angriffen (X größer 50) pro Minute bewiesen hat, dass die nach Völkerrecht/Kriegsrecht notwendige Abschätzung von Kollateralschäden durch Menschen in vielen Fällen unterblieben ist.
Auch das Thema KI gehört neben der Ächtung des automatischen Tötens auf den Verhandlungstisch bei Rüstungsbegrenzungsgesprächen. (Bild  Forderung nach Ächtung)


Dagegen zu handeln ist es höchste Zeit. Meredith Whittaker ist eine der bekanntesten kritischen Forscherinnen zu künstlicher Intelligenz.
https://www.nzz.ch/technologie/ki-kommt-direkt-aus-dem-ueberwachungsmonopol-der-tech-firmen-ld.1700728

Sie organisierte als Angestellte bei Google einen Protest gegen die Nutzung militärischer KI und von Google Suchergebnissen und verlor daraufhin ihren Job. Nun ist sie die neue Präsidentin der Stiftung hinter dem Signal Messenger. Sie sagt: „die Macht- und die Besitz-Frage - das ist die eigentliche Frage, die gestellt werden muss!“
https://www.republik.ch/2023/07/05/wer-dem-ki-hype-verfaellt-staerkt-die-macht-der-big-tech-chefs

KI und Atomkrieg: Eine KI würde Atomwaffen einsetzen

Dass eine künstliche Intelligenz schnell ausrastet, haben schon einige Modelle gezeigt. Wir erinnern uns an den Chatbot von Microsoft der innerhalb kurzer Zeit zu einem Rüpel wurde.  (http://www.gulli.com/news/27273-twitter-user-machten-microsofts-chatbot-zu-einem-ruepel-2016-03-25 und https://aktion-freiheitstattangst.org/de/articles/5467-20160326-auch-kuenstliche-intelligenz-kann-rassistisch-werden.html )

Das gilt auch für den Einsatz von KI beim Militär, denn Forscher der Stanford Universität sind sich sicher, dass den gängigen KI-Modellen eine Tendenz zum eskalierenden Verhalten innewohnt. Die Untersuchung von fünf großen Sprachmodellen (LLM) zeigte nach Aussagen der Forscher: „Wir beobachten, dass die Modelle dazu neigen, eine Dynamik das Wettrüstens zu entwickeln, die zu größeren Konflikten und in einigen Fällen sogar zum Einsatz von Atomwaffen führte.“ (Zitat sprechen lassen)

Als Hauptgrund für dieses Verhalten wurde die fehlende Ethik bei der Entscheidungsfindung und dem Wunsch oder Ziel der Programme ein Problem endgültig positiv für die eigene Position zu lösen. Allein eine kleine Überlebenschance auszurechnen, gibt den Modellen die Option dies auch Realität werden zu lassen.

KI Modelle verstehen nichts und haben auch kein Hintergrundwissen Sie kennen keine Zusammenhänge kein Konzept von Wahrheit. Sie remixen nur was andere Leute anderswo gesagt haben. Zu dieser Thematik der folgende Link: https://www.deutschlandfunk.de/experten-warnen-vor-risiko-einer-vernichtung-106.html
Das heißt, eine KI wäre jederzeit bereit einen Atomkrieg zu führen.

Ein schöner Artikel zu dieser Thematik ist der folgende von Michal Zalewski. Er weist darauf hin, dass wir begeistert sind, wenn die KI unser eigenes Un-Wissen nachahmt. Beispiele sind z.B. die Erde als Scheibe oder das Zweifeln an der Mondlandung: https://lcamtuf.substack.com/p/llms-are-better-than-you-think-at  
„Mit einem sanften Stupser kann ein Troll sie dazu bringen, zusammenhangloses pseudowissenschaftliches Geschwätz von sich zu geben - oder fröhlich für Völkermord einzutreten.“ (Zitat sprechen lassen)

Schon vor vier Jahren hatten wir in einem Artikel über das Future Combat Air System (FCAS) berichtet, bei dem autonome bewaffnete KI-gesteuerte Drohnenschwärme Kampfjets begleiten sollen. Die Kosten dieses deutsch-französischen Projekts werden auf 500 Milliarden € geschätzt.
Damals hatten sich noch Wissenschaftler in einem offenen Brief in der FAZ gegen diesen Unsinn und die ungeheure Verschwendung menschlicher Ressourcen für das geplante EU Rüstungsvorhaben ausgesprochen und vor den Gefahren gewarnt. (https://www.jakobfoerster.com/offener-brief-von-ki-forschern-nein-zu-fcas-am-23-juni )

Unser letztes Beispiel zur KI im Krieg stammt aus einer Gesprächsrunde bei Heise.de mit den US Whistleblowern Lisa Ling und Cian Westmoreland.
Diese hatten auf die Verbindung des US Militärs mit den uns gut bekannten Big Five und ihre „gute“ Zusammenarbeit hingewiesen.
Die Vernetzung von staatlichem Militär und privaten Online Tech Giganten haben sie erklärt am Beispiel des Suchens bei Google für die Zielerfassung oder die Nutzung der Daten von Mobilfunk Providern auf deren Grundlage dann „menschliche Ziele“ für den Drohnenkrieg bestimmt werden.

Ein Beispiel erläutert Cian Westmoreland: „Im Dezember 2019 taten sich die US Air Force und das Raumfahrtkommando mit mehreren Unternehmen darunter Space X zusammen, um ihre fortschrittlichen Gefechtsmanagementfähigkeiten zu demonstrieren. Bei der Übung wurde ein AC-130 Gunship mit Elon Musk’s Satelliten Internet Starlink verbunden, um so einem Tarnkappen Kampfflugzeug F-35 eine sichere Kommunikation mit einem Luftüberlegenheitsjäger F-22 zu ermöglichen.“  (Zitat sprechen lassen)

Im weiteren Verlauf der Übung ist es gelungen ein Objekt abzuschießen, welches einen Marschflugkörper simuliert habe. Erschreckend ist, dass es so zu einer weiteren Militarisierung des Weltraums kommt, was eigentlich ein Verstoß gegen die entsprechenden Verträge aus dem Jahre 1967 darstellt.

Was bringt die Zukunft?

Kritiker, die aus ethischer Sicht oder ihrem Fachwissen heraus die ungebremste Entwicklung von KI-Systemen kritisieren, gibt es einige. Hier eine kleine Auswahl.

Bild 13: Noam Chomsky (Portrait_2017, Wikipedia)

Philosophen, wie Noam Chomsky sehen zwei mögliche Gefahren bei der Künstlichen Intelligenz:

  • die KI zu unterschätzen: KI-Systeme werden Einzug in unser Leben bekommen und "die Automatisierung" wird dann nicht nur die Arbeitsplätze übernehmen, die niemand ausführen möchte, sondern es werden auch zunehmend "Regeln und Abläufe standardisiert" ohne dass Menschen das demokratisch legitimiert haben,
  • wie auch die KI zu überschätzen: Eine Übergabe von Verantwortung an die KI könnte schlimme Folgen für Wissenschaft und Ethik und eventuell den Fortbestand der Menschheit haben.
  • Zu KI als Bedrohung für das freie Internet sagt die NGO Freedom House in ihrem jährlich erscheinenden Bericht "Freedom of the Net": "In mindestens 16 Staaten wurde laut Freedom House KI genutzt, um den politischen Diskurs vor Wahlen zu sabotieren."  … "KI-Technologie für Verbraucher hat die Eintrittsbarrieren in den Desinformationsmarkt gesenkt. … falsche und irreführende Informationen sind leicht zu erstellen und dann können bestehende Netzwerke genutzt werden, um sie in großem Umfang zu verbreiten."
    https://netzpolitik.org/2023/freedom-of-the-net-2023-ki-als-bedrohung-fuer-das-freie-internet/

In seinem Buch „die Macht der Computer“ stellt Joseph Weizenbaum ein früherer KI- Forscher und Kritiker fest:
"Die Macht der KI besteht nicht etwa darin, dass sie den Menschen in ihrer Intelligenz überlegen sein würde." Er kritisierte viel mehr, dass Menschen immer mehr dazu neigen, ihr Verhalten dem der Maschinen anzupassen. Er sieht viel mehr die Gefahr, dass konservative Kräfte noch stärker werden und den sozialen Fortschritt behindern.
https://netzpolitik.org/2023/worldcoin-noch-ein-waggon-im-ki-hype-zug/

Sind Sprachmodelle bald die besseren Mathematiker?
Nein! Mit den Sprachmodellen verlernen die Computer das Rechnen.
Ein Beispiel finden wir hier: Raten statt Rechnen ( https://www.spektrum.de/news/wie-sprachmodelle-zu-besseren-mathematikern-werden/2124129 ), ein weiteres führt Googles Programm GEMINI vor.

Bild 14: KI rechnet falsch

Aber selbst rechnen kann eine KI wie Google Gemini nicht unbedingt richtig, lässt sich aber über eine halbe Seite dazu aus, wie sie gerechnet hat.
Auf die Frage nach der Primfaktorzerlegung von 6666660666 sagte Gemini

6666660666 = 2 × 3 × 7 × 11 × 13 × 17 × 23 × 47 × 89 × 101

was um den Faktor 150 daneben liegt, denn mein eigenes Programm kommt auf folgende Lösung:

Die Primzahlzerlegung von 6666660666 = 2 * 3 * 3 * 3 * 37 * 67 * 49801

und mein Linux Rechner sagt bei der Probe der beiden Lösungen:

                      echo "2*3*7*11*13*17*23*47*89*101" | bc        992136263118
und bei          echo " 2 * 3 * 3 * 3 * 37 * 67 * 49801"   |bc             6666660666

 

Tabelle 4: KI kann nicht rechnen (nach Elias Schwerdtfeger http://www.tamagothi.de/2024/07/04/endlich-intelligente-rechner-koennen-nicht-mehr-rechnen/ )

So ist das eben mit den angelernten neuronalen Netzwerken im Unterschied zu „richtigen“ Algorithmen, die durch Problemanalyse und Implementation entstehen:

  • Wenns funktioniert , weiß man nicht, warum es funktioniert;
  • wenns nicht funktioniert, weiß man nicht, warum es nicht funktioniert;
  • man hat nicht einmal eine heuristische Möglichkeit, die Güte einer Antwort algorithmisch zu ermitteln und dem Anwender mitzuteilen;
  • man erhält keine Einsicht in die Struktur mit einem angelernten neuronalen Netzwerk gelösten Problems;
  • man hat keine Möglichkeit, Fehler zu lokalisieren und gezielt zu beheben, weil sie sich auf undurchschaubare Weise holografisch im gesamten neuronalen Netzwerk befinden;
  • man hat keine Möglichkeit, die Funktion eines angelernten neuronalen Netzwerkes mit geringem Aufwand zu erweitern, man kann es nur zusätzlich anlernen und hoffen, dass es dabei das Gewünschte erlernt;
  • das simulierte neuronale Netzwerk ist langsam und benötigt außerordentlich viel Rechenzeit und Energie;
  • der Aufwand beim Anlernen des neuronalen Netzwerkes ist sehr hoch und verursacht große Kosten, die durch Auslagerung der erforderlichen menschlichen Arbeit in Billiglohnländer reduziert werden.
  • Das ist doch alles mehr als Grund genug, lieber die natürliche Intelligenz zum Denken zu benutzen… und den Rechner zum rechnen.

"Wenn es funktioniert, ist es keine KI mehr." Dieser berühmte Satz stammt von einem der Urväter der KI-Forschung, John McCarthy. Dieser hat auch über 50 Jahre später immer noch Bestand. https://en.wikipedia.org/wiki/John_McCarthy_(computer_scientist)

Bild 15: Sabine Hossenfelder (WikipediaCC)

Auch aus dem Gebiet der Quantenphysik gibt es Kritik an KI. So stellt Sabine Hossenfelder in ihrem Buch „Mehr als nur Atome“ zur KI fest:

Je komplexer die Computer werden, desto deutlicher werden die Unterschiede. ...
Jetzt extrapolieren Sie das noch einige Jahrzehnte in die Zukunft. Es wird ein paar große Unternehmen, Regierungen und vielleicht ein paar Milliardäre geben, die sich ihre eigene KI leisten können. Diese KIs werden empfindlich sein und die ständige Aufmerksamkeit einer Crew eigens dafür abgestellter Menschen benötigen.
Wenn man unter diesem Gesichtspunkt darüber nachdenkt, drängen sich sofort einige Fragen auf:

  • Wer darf Fragen stellen? Welche Fragen?
    Für private KIs mag dies nicht zur Diskussion stehen, aber was ist mit den von Wissenschaftlerinnen und Wissenschaftlern geschaffenen oder von Regierungen gekauften KIs? Hat jeder ein Recht auf eine Frage pro Monat? Müssen schwierige Fragen vom Parlament genehmigt werden? Wer ist dafür zuständig?
  • Woran erkennt man, dass man es mit einer KI zu tun hat?
    In dem Moment, in dem man anfängt, sich auf KIs zu verlassen, besteht die Gefahr, dass Menschen sie benutzen, um ihre eigene Meinung als die der KI auszugeben. Dieses Problem wird auftreten, lange bevor KI intelligent genug ist, um eigene Ziele zu entwickeln. Nehmen wir an, eine Regierung setzt KI ein, um den besten Auftragnehmer für eine lukrative Bauaufgabe zu finden. Halten Sie es wirklich für einen Zufall, dass das Unternehmen den Zuschlag bekommt, dessen Hauptaktionär der Bruder des Vizepräsidenten ist?
  • Woran erkennt man, ob eine Kl gute Antworten gibt?
    Wenn Sie nur einige wenige KIs haben, die für völlig unterschiedliche Zwecke trainiert wurden, ist es vielleicht nicht möglich, deren Ergebnisse zu reproduzieren.
    Woher wissen Sie also, dass Sie ihnen vertrauen können?
    Vielleicht wäre es eine gute Idee, zu verlangen, dass alle KIs ein gemeinsames Fachgebiet haben, das zum Vergleich ihrer Leistung herangezogen werden kann.
    Aber wer garantiert, dass die anderen Gebiete mit der gleichen Genauigkeit gelernt wurden?

Forderungen

B: Versuchen wir im folgenden aus dem soeben gehörten einige grundsätzlich Forderungen abzuleiten, die mindestens notwendig sind, wenn man KI Systeme nutzen möchte.
Die ersten Forderungen die wir vorstellen kommen aus einem völlig anderen Gebiet, nämlich dem Versuch der UN Menschenrechtskonvention weitere notwendige Menschenrechte/Grundrechte hinzuzufügen:

16.05.2022 "Wir fordern sechs neue Grundrechte"

Vier davon, die Artikel 2-5 würden uns auch bei der Gestaltung und Nutzung von KI unterstützen:

  • Artikel 1 – Umwelt
    Jeder Mensch hat das Recht, in einer gesunden und geschützten Umwelt zu leben.
  • Artikel 2 – Digitale Selbstbestimmung
    Jeder Mensch hat das Recht auf digitale Selbstbestimmung. Die Ausforschung oder Manipulation von Menschen ist verboten.
  • Artikel 3 – Künstliche Intelligenz
    Jeder Mensch hat das Recht, dass ihn belastende Algorithmen transparent, überprüfbar und fair sind. Wesentliche Entscheidungen muss ein Mensch treffen.
  • Artikel 4 – Wahrheit
    Jeder Mensch hat das Recht, dass Äußerungen von Amtsträgern (oder einer KI) der Wahrheit entsprechen.
  • Artikel 5 – Globalisierung
    Jeder Mensch hat das Recht, dass ihm nur solche Waren und Dienstleistungen angeboten werden, die unter Wahrung der universellen Menschenrechte hergestellt und erbracht werden.
  • Artikel 6 – Grundrechtsklage
    Jeder Mensch kann wegen systematischer Verletzungen dieser Charta Grundrechtsklage vor den Europäischen Gerichten erheben.

 

Tabelle 5: Weitere notwendige Menschenrechte aus der Petition von Move.On "Für neue Grundrechte in Europa"! (Mai 2022)

Quelloffene KI

Die Open Source Initiative stellt ebenfalls eine offizielle Definition von quelloffener künstlicher Intelligenz vor. Natürlich stehen diese strikt im Widerspruch zu den aktuell agierenden Techkonzernen.
https://www.heise.de/hintergrund/Quelloffene-KI-Warum-die-Techbranche-darueber-streitet-was-das-ueberhaupt-ist-9665378.html

 Die Open Source Initiative fordert: Damit ein KI-System als quelloffen gilt, müssen demnach

  • Details zu den Trainingsdaten so offengelegt werden, damit sie von Dritten verstanden und nachgebildet werden können.
  • Zudem muss der vollständige Code, der für die Erstellung und Ausführung der KI verwendet wurde, öffentlich sein und
  • die Gewichtung der Trainingsdaten, auf deren Grundlage die KI ihre Ergebnisse erzielt, müssen einsehbar sein.

Auch die Gewerkschaftsbewegung hat zum Thema KI Forderungen aufgestellt. So lauten die Forderungen von der Dienstleistungsgewerkschaft Verdi:

  • Dialogische (gemeinsame) Erarbeitung einer gesellschaftlichen Vision als Leitgedanke für den KI-Einsatz in Deutschland
  • Rückbindung der KI-Entwicklung an demokratische Verfahren und gesellschaftliche Diskussionen.
  • Klare Ethikregeln und Kriterien für Gute Arbeit als Einsatzprinzipien.
  • Definition von „roten Linien“ für den KI-Einsatz: z.B. Verbot autonomer Waffensysteme.
  • Definition einer verantwortlichen Stelle und eine stringente Zweckbindung von KI, eine Folgenabschätzung entsprechend der EU-DSGVO sowie festgelegte Eingriffsmechanismen und Produkthaftung.
  • Rechenschaftspflichten: Transparenz der Funktionsmechanismen und Entscheidungsparameter (white box); Whistleblower-Schutz
  • Ausweitung der KI-Sicherheits- und Arbeitsforschung sowie Technikfolgenabschätzung; eine gründliche Erprobung (Testing) von KI-Anwendungen (konzeptionelle Entschleunigung, s. oben Nachprüfbarkeit durch Menschen)
  • Kennzeichnungspflicht für Chatbots und künstlichen Sprachagenten bei deren Einsatz
  • Offenlegung und Umverteilung von Effizienzgewinnen durch KI in gesellschaftliche Bedarfsfelder wie gesellschaftlich-notwendige Dienstleistungen im Bereich Gesundheit, Pflege, Bildung und Mobilität

Hinzufügen möchten wir aus unserer Sicht gerne

  • Die letzte Entscheidung muss immer bei Menschen liegen.
  • Dazu müssen den Menschen die Gründe und die Gewichtung bei der Entscheidungsfindung begreifbar gemacht werden. Damit würde sich jeglicher Einsatz von KI beim Militär verbieten, weil der Mensch nie so schnell sein kann wie Computerprogramme.

Alle der vorstehenden Forderungen verbieten den Besitz der KI-Systeme durch große Konzerne und ihre unkontrollierte Verwendung.

Zusammenfassung

Wir fragen uns, ob das alles war. Haben wir wichtige Aspekte vergessen? Zwei Jahre haben wir uns intensiv mit dem Thema beschäftigt. Bei Quantencomputern und neuronalen Netzwerken sind wir an unsere eigenen Wissensgrenzen gestoßen und über die wirkliche Entwicklung in den nächsten Jahren können wir nur spekulieren. Was aber sicher ist, bleiben folgende Aussagen:

  • Wir brauchen eine starke Regulierung von KI.
  • KI darf nicht in den Händen von großen Tech-Konzernen liegen.
  • Die Software muss Open Source sein und die Herkunft der Trainingsdaten muss offen einsehbar sein.
  • Bevor Anwendungen mit KI starten müssen alle möglichen Risiken bedacht und ausgeschlossen werden.
  • Nicht der Nutzer muss haften, sondern stets der Hersteller, bzw. Anbieter.
  • ...
  • Wir dürfen von künstlicher Intelligenz keine Wunder erwarten - statt dessen sollten wir stets mit fehlerhaftem Verhalten rechnen ...

Wir freuen uns über Anmerkungen und Ergänzungen zu den 3 Artikeln zum Thema "Künstliche Intelligenz" über unser Postfach kontakt@aktion-fsa.de.

Mehr dazu in Teil I https://www.aktion-freiheitstattangst.org/de/articles/8950-20241031-thema-kuenstliche-intelligenz.html
und Teil II https://www.aktion-freiheitstattangst.org/de/articles/9013-20241230-thema-kuenstliche-intelligenz.html


Kategorie[26]: Verbraucher- & ArbeitnehmerInnen-Datenschutz Short-Link dieser Seite: a-fsa.de/d/3Fz
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/9066-20250220-thema-kuenstliche-intelligenz.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9066-20250220-thema-kuenstliche-intelligenz.html
Tags: #KI #AI-Act #EU #Gefahren #Fehler #Hacker #Ethik #sensibleDaten #Zugriff #Hersteller #Arbeitsbedingungen #Arbeitplatzvernichtung #Krieg #Militär #Drohnen #Zukunft #OpenSource #Big5 #GAFAM #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Datenpannen #Datenskandale #Transparenz #Informationsfreiheit #AlexTV #Video #Transkript
Erstellt: 2025-02-20 09:10:35
Aufrufe: 78

Kommentar abgeben

Für eine weitere vertrauliche Kommunikation empfehlen wir, unter dem Kommentartext einen Verweis auf einen sicheren Messenger, wie Session, Bitmessage, o.ä. anzugeben.

Geben Sie bitte noch die im linken Bild dargestellte Zeichenfolge in das rechte Feld ein, um die Verwendung dieses Formulars durch Spam-Robots zu verhindern.

CC Lizenz   Mitglied im European Civil Liberties Network   Bundesfreiwilligendienst   Wir speichern nicht   World Beyond War   Tor nutzen   HTTPS nutzen   Kein Java   Transparenz in der Zivilgesellschaft

logos Mitglied im European Civil Liberties Network Creative Commons Bundesfreiwilligendienst Wir speichern nicht World Beyond War Tor - The onion router HTTPS - verschlüsselte Verbindungen nutzen Wir verwenden kein JavaScript Für Transparenz in der Zivilgesellschaft