|
Diskussion bei Alex TV
TEIL II: Künstliche Intelligenz - Überblick zu Haftung und Copyright und dem EU AI-ActInhalt
Doch auch die bestehenden Anwendungen bergen bereits genug Probleme, so dass wir uns fragen, ob KI eine Regulierung benötigt, und dass wir uns mit der Frage der Haftung für fehlerhafte Anwendungen und im späteren Verlauf auch um das Problem des Copyright beschäftigen werden. Pannen und Skandale durch künstliche IntelligenzR: Bei jedem KI-System kann es zu Fehlern kommen. Die können durch die Fehlinterpretation von Dateneingaben entstehen. Wie wahrscheinlich es dazu kommt, hängt im wesentlichen von der Qualität und der Quantität der Trainingsdaten ab, mit denen das System auf seine Aufgaben vorbereitet wurde. Neben zufälligen Fehlfunktionen können natürlich auch Angreifer gezielt nach Eingabedaten suchen, die dann im Datenvorrat so positioniert oder verändert werden, dass es zur (gezielten) Fehlentscheidung der KI führt.
Das Bundesamt für die Sicherheit in der Informationstechnik, BSI, warnt "Bei jedem KI-System kann es zu Fehlinterpretationen bei neuer Dateneingabe kommen". Auch die Diskriminierung bestimmter Personengruppen oder ethnischer Minderheiten bei KI Entscheidungen ist häufig auf unzureichende beziehungsweise unausgewogene Trainingsdatensätze zurückzuführen. Erst vor 2 Monaten mussten wir auf unseren Webseiten über folgenden Fall berichten: Bild 3: 06.09.2024 Diskriminierung von Frauen durch KI
Das klassische Beispiel für solches Verhalten war der rassistische Chatbot Tay von Microsoft. Dieser Chatbot, ein Dialogsystem, sollte lernen, indem er mit Menschen auf Twitter kommuniziert. Im Netz wurde er für einen amerikanischen Jugendlichen ausgegeben. Schon nach kurzer Zeit reagierte er rassistisch und sexistisch. Microsoft erklärte, dies nicht voraus gesehen zu haben und nahm den Bot wieder vom Netz. Andere Beispiele: Alexa sagte für den 23. November 2023 den dritten Weltkrieg voraus und am 25.11.2023 sollte ein Atomschlag die Erde vernichten. Beides fiel (glücklicherweise) aus. Weitere Beispiele aus unserem Web: Bild 5+6 ff
KI kann uns steuern und manipulieren. Sogenannte "Empfehlungsalgorithmen" sind die Basis für Streaming-, Shoppingplattformen und sollen uns dazu bringen noch mehr von unserem Geld in den Wirtschaftskreislauf zu schaufeln. 14.07.2021 KI untersucht Schuldnertypen
oder die KI erklärt einfach Begriffe für verboten, in diesem Fall hat die Google KI die Zahlen 1 und 500 für unzulässig erklärt. Das mag religiös zu begründen sein, sinnvoll ist es nicht.
Was wir aus diesen Beispielen lernen, ist eine in der Informatik bekannte Tatsache, die Fehlerfortpflanzung. Wenn die KI Programme einfach so aus dem Boden schießen und von aller Welt benutzt werden, so besteht die Gefahr, dass die Welt, bzw. das Internet immer mehr mit KI-generiertem Content verschmutzt wird. Die Folge wäre mit der Zeit die absolute Verblödung. Nicht weil die KI dumm ist, sondern weil sie Fehler macht und dann auch wieder aus diesen Fehlern lernen will. Sie kann nur das wissen, was im Internet steht oder sie aus den Trainingsdaten gelernt hat. Je dümmer das Internet durch die Daten der KI wird, desto dümmer werden auch wir. Auch die KI wird sich damit langfristig selbst auffressen und auch das globale Wissen wird nicht größer sondern dümmer. Autonomes Fahren
B:: Bisher gibt es ja nur die Schwache KI. Das selbstfahrende Auto ist der Einstieg in die Starke KI und damit gibt es größere Probleme. Was sind das denn für Probleme bei dem selbstfahrenden Auto z.Zt. noch als schwache KI, bzw. KI im Übergang zu einer starken KI?
Es hat aber auch schon Unfälle mit Verletzten gegeben, die sich dann als negative Reklame auf die verantwortlichen Firmen auswirken.
Apple hat sich aus einem ähnlichem Projekt zurückgezogen und die Nutzung autonomer Autos vorerst eingestellt. Das Projekt von Apple für autonom fahrende Autos wurde kurz vor der Präsentation von Teslas Robotaxi durch Elon Musk offiziell eingestellt.
GM stoppt autonomes Fahren: Etliche Milliarden Dollar verbrannt. Damit wird das ehemalige Prestige-Projekt "Cruise" zum Milliardengrab.
Sammlung der Skandale zu KI finden sie bei uns auf der Webseite
Zum Stand der Technik lässt sich jedenfalls feststellen: der Mensch fährt besser Auto als die KI. Auch dafür gibt es eine Quellenangabe: HaftungsproblemeB:: Was steht es nun mit der Haftung, wenn es Probleme mit KI Anwendungen gibt ?
Das Bundesamt für Sicherheit in der Informatik (BSI) stellt fest: Es wird immer Fehler geben mit verschiedenen Ursachen! Bei jedem KI-System kann es zu Fehlinterpretationen bei jeder Dateneingabe kommen.
Dann ergeben sich Haftungsprobleme: https://www.taylorwessing.com/de/insights-and-events/insights/2024/04/planned-guidelines-regarding-ai-liability
Allerdings wird die Schuld stets schwer nachweisbar sein. Hilfreich ist dazu der folgende Link
Derzeit haftet in den meisten Fällen der Halter ohne, dass es klar ist, wer den Fehler gemacht hat. Risiko!
In der Regel besitzt der Hersteller die Daten. Bisher ist leider noch nicht so, dass der Hersteller haftet. Wir raten daher ab von jeglicher Nutzung bzw. dem Kauf von solchen Fahrzeugen!!!
B: Hat der Fahrer einen Fehler gemacht? Der Halter? Der Hersteller? Ein IT-Dienstleister? Mobilfunkanbieter? Netzbetreiber? Kartenanbieter?
Wo diese Verantwortung liegt, wird beim autonomen Fahren aber nur anhand der Fahrzeugdaten erkennbar sein. Daher muss klar und deutlich geregelt sein, welche Daten wann gespeichert werden, wie der Zugriff auf diese Daten erfolgt und dass berechtigte Dritte (auch Unfallbeteiligte und Kfz-Versicherer) Zugang zu den Daten erhalten.
Zum Thema Haftung gibt es noch ein weiteres Problem: Neben dem Strafrecht gibt es auch zwei große Bereiche des Zivilrechts. Das Vertrags- und das Deliktsrecht. Während im ersteren Haftungsfragen im Rahmen von Vertragsverhältnissen geregelt sind, widmet sich letzteres Haftungsfragen außerhalb von solchen, vornehmlich also Haftungsfällen, die durch widerrechtliche Handlungen des Nutzers oder eines Hackers entstanden sind.
Eine KI kann auch Existenzen vernichten, wie in folgendem Fall, den die Zeitschrift ct im Heft 24 aufführt: Das Problem für die Betroffenen sind wieder die Schwierigkeit der Beweissicherung, vor allem, wenn man gegen den Hersteller vorgehen möchte, der meist im Besitz der Daten ist. Beliebig schwer wird auch die Frage zu beantworten sein: Hat die KI vorsätzlich oder manipuliert gehandelt?
Wenigstens einen erfolgreich Fall für die Haftung nach einem Schaden durch eine KI haben wir gefunden AI Act der EU vom Januar 2024
B: Es gibt also dringenden Handlungsbedarf für eine Regulierung der KI. Interessant dazu ist doch sicher der KI-Act der EU: Warum werden ausgerechnet für "Hochrisikotechnologien" Ausnahmen gemacht? Diese sollten am besten ganz verboten oder zumindest so stark reguliert werden, dass niemand durch sie Schaden erleiden kann. Beim autonomen Fahren ist das Lebensgefahr, wie schon einige Vorfälle gezeigt haben. Gerade die Gesichtserkennung war ein grundsätzlicher Diskussionspunkt zwischen EU-Parlament und Kommission. Die Vertreter des Staates haben sich wieder einmal durchgesetzt. Biometrische Gesichtserkennung soll in "Gefahrenlagen" unter richterlicher Aufsicht möglich sein. Welche regulatorische "Steuerung" dann künftig verhindern soll, dass KI-Algorithmen unsere Zwangs-ePA (elektronische Patientenakte) aufhübscht, steht völlig in den Sternen. Wie man regulieren will, dass nicht eine KI künftig die Bewerbungsunterlagen von nicht-weißen Männern und Frauen gleich aussortiert, sondern ein Mensch das entscheidet wird auch noch interessant.
Im Zusammenhang mit dem oben zitierten Fall des Gerichtsreporters kommt die ct in Heft 24/2024 zu folgender Feststellung: Positiv im KI-Act sind die Verbote beim Einsatz von KI bei der Gefühlserkennung und für Social Credit Systeme. Alle anderen Punkte werden sich leider erst aufklären, wenn Gerichte sich damit beschäftigen müssen. B: Wem gehören die Ergebnisse? Die Frage des Copyright/Urheberrecht
R: Kurz und knapp gibt folgender Link eine Darstellung der Problematik: https://www.urheberrecht.de/kuenstliche-intelligenz/
Das Urheberrecht greift unmittelbar mit der Schöpfung des Werkes. Hier muss untersucht oder bewiesen werden, dass der Mensch wesentliche Ideen/Gestaltung in den Schaffensprozess der KI mit eingebracht hat. Ob diese Schutzschwelle erreicht ist, ist im Einzelfall zu prüfen. Eine Urheberschaft des Nutzers der KI kommt in Betracht, wenn sich die Software lediglich als Hilfsmittel darstellt und ihr Einsatz im Entstehungsprozess des Werks von untergeordneter Bedeutung ist. R: Hier sehen wir so ein von einer KI "gemaltes" Bild. Deep Fakes können sein: die Fälschung von Gesichtern, die Fälschung von Stimmen, die Fälschung von Texten. Die Urheber solcher Texte und die Besitzer dieser Stimmen oder Gesichter können mit KI mit wenig Aufwand und Expertise in einer hohen Qualität nachgeahmt werden. Wieder müssen wir uns mit dem Grundsatz der Unschuldsvermutung auseinandersetzen. Der Urheber oder Besitzer wird durch den Deep Fake geschädigt und muss sich rechtfertigen, bzw gegen die Fälschung vorgehen.
Bei der Nutzung des KI-generierten Ergebnisses ist auch zu prüfen, ob und inwieweit vorbestehende Werke darin erkennbar sind. Hiervon hängt etwa ab, ob für die Nutzung des KI-generierten Inhalts Erlaubnisse anderer Rechtsinhaber eingeholt werden müssen oder nicht.
Aber: Weder die Stimme noch das Bildnis einer Person sind urheberrechtlich schutzfähig aber evtl. die Quelldaten aus denen der KI-Inhalt generiert wurde. Trotzdem ist wichtig: es gibt noch andere Rechtsgüter, man muss stets bedenken, dass Deep Fakes das allgemeine Persönlichkeitsrecht einer Person verletzen können .
Aber wir wollen es uns nicht zu leicht machen: Auf der anderen Seite gibt es noch eine weitere Grauzone: Die Eingabe der Nutzerin bzw. des Nutzers in die KI kann als geistige Schöpfung gesehen und die KI kann nur als „Werkzeug bzw. untergeordnetes Hilfsmittel“ zur Erstellung eines Werkes betrachtet werden. Dann entsteht ein urheberrechtlich geschütztes Werk („KI-assistierte Werkschöpfung“ nach Malte Baumann: Generative KI und Urheberrecht – Urheber und Anwender im Spannungsfeld, NJW 2023, 3673)
Vererbung des Copyrights: Beispielsweise könnte eine Urheberrechtsverletzung begangen werden, wenn die KI einen Text generiert, welcher einem bestehenden und urheberrechtlich geschützten Text sehr nahekommt (z. B. ein Songtext oder eine reine Übersetzung eines Textes usw.). Es wird davon ausgegangen, dass es hierzu künftig gerichtliche Auslegungen sowohl auf EU-Ebene als auch auf nationaler Ebene geben wird. Bis dahin besteht hier wie auch bei einigen Aspekten des KI-Act eine rechtliche Grauzone.
Das Verbraucherportal Baden-Würtemberg listet auf ihren Webseiten einige Fallen bei der Verwendung von KI auf. B: Kommen wir zum Abschluss des 2. Teils:
Hinweis auf die Inhalte in Teil 3
Mehr dazu bei Teil 1 https://www.aktion-freiheitstattangst.org/de/articles/8950-20241031-thema-kuenstliche-intelligenz.html Kategorie[26]: Verbraucher- & ArbeitnehmerInnen-Datenschutz Short-Link dieser Seite: a-fsa.de/d/3EE Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/9013-20241230-thema-kuenstliche-intelligenz.html Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9013-20241230-thema-kuenstliche-intelligenz.html Tags: #KI #AI-Act #EU #Gefahren #Fehler #Hacker #Haftung #autonomesFahren #Kfz #Urheberrecht #Copyright #sensibleDaten #Zugriff #Hersteller #Polizei #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Datenpannen #Datenskandale #Transparenz #Informationsfreiheit #AlexTV #Video #Transkript Erstellt: 2024-12-30 10:19:29 Aufrufe: 107 Kommentar abgeben |
CC Lizenz Mitglied im European Civil Liberties Network Bundesfreiwilligendienst Wir speichern nicht World Beyond War Tor nutzen HTTPS nutzen Kein Java Transparenz in der Zivilgesellschaft |