DE | EN
Sitemap | Impressum
web2.0 Diaspora Vimeo Wir in der taz Wir bei Mastodon A-FsA Song RSS Twitter Youtube Unsere Artikel bei Tumblr Unsere Bilder bei Flickr Aktion FsA bei Wikipedia Spenden Facebook Bitmessage Spenden über Betterplace Zugriff im Tor-Netzwerk https-everywhere
30.12.2024 Thema: Künstliche Intelligenz

Diskussion bei Alex TV

TEIL II: Künstliche Intelligenz - Überblick zu Haftung und Copyright und dem EU AI-Act

Inhalt

  • Fehlerhafte Systeme u.a. beim autonomen Fahren
  • Haftung
  • Urheberrecht und Fragen zum Copyright


B: Der erste Teil unserer Untersuchung über künstliche Intelligenz führte uns zu dem Ergebnis, dass es bereits Anwendungen für die sogenannte „schwache KI“ gibt, während die „starke KI“ noch in den Kinderschuhen steckt.

Doch auch die bestehenden Anwendungen bergen bereits genug Probleme, so dass wir uns fragen, ob KI eine Regulierung benötigt, und dass wir uns mit der Frage der Haftung für fehlerhafte Anwendungen und im späteren Verlauf auch um das Problem des Copyright beschäftigen werden.

Pannen und Skandale durch künstliche Intelligenz

R: Bei jedem KI-System kann es zu Fehlern kommen. Die können durch die Fehlinterpretation von Dateneingaben entstehen. Wie wahrscheinlich es dazu kommt, hängt im wesentlichen von der Qualität und der Quantität der Trainingsdaten ab, mit denen das System auf seine Aufgaben vorbereitet wurde. Neben zufälligen Fehlfunktionen können natürlich auch Angreifer gezielt nach Eingabedaten suchen, die dann im Datenvorrat so positioniert oder verändert werden, dass es zur (gezielten) Fehlentscheidung der KI führt.

Bild 3: Diskriminierung von Frauen durch KI

Das Bundesamt für die Sicherheit in der Informationstechnik, BSI, warnt "Bei jedem KI-System kann es zu Fehlinterpretationen bei neuer Dateneingabe kommen". Auch die Diskriminierung bestimmter Personengruppen oder ethnischer Minderheiten bei KI Entscheidungen ist häufig auf unzureichende beziehungsweise unausgewogene Trainingsdatensätze zurückzuführen.

Erst vor 2 Monaten mussten wir auf unseren Webseiten über folgenden Fall berichten: Bild 3: 06.09.2024 Diskriminierung von Frauen durch KI

Das klassische Beispiel für solches Verhalten war der rassistische Chatbot Tay von Microsoft. Dieser Chatbot, ein Dialogsystem, sollte lernen, indem er mit Menschen auf Twitter kommuniziert. Im Netz wurde er für einen amerikanischen Jugendlichen ausgegeben. Schon nach kurzer Zeit reagierte er rassistisch und sexistisch. Microsoft erklärte, dies nicht voraus gesehen zu haben und nahm den Bot wieder vom Netz.
Bild 4: https://www.aktion-freiheitstattangst.org/de/articles/8320-20230228-ki-chatbot-als-manipulativer-luegner.html

Andere Beispiele: Alexa sagte für den 23. November 2023 den dritten Weltkrieg voraus und am 25.11.2023 sollte ein Atomschlag die Erde vernichten. Beides fiel (glücklicherweise) aus. Weitere Beispiele aus unserem Web: Bild 5+6 ff

Bild 4: Microsofts Bot Tay wird rassistisch

KI kann uns steuern und manipulieren. Sogenannte "Empfehlungsalgorithmen" sind die Basis für Streaming-, Shoppingplattformen und sollen uns dazu bringen noch mehr von unserem Geld in den Wirtschaftskreislauf zu schaufeln. 14.07.2021 KI untersucht Schuldnertypen
Es kann aber auch mal zu Lasten der Betreiber der KI, also nach hinten losgehen. Kunden ohne Geld können bis zu 1.000 € abheben.

oder die KI erklärt einfach Begriffe für verboten, in diesem Fall hat die Google KI die Zahlen 1 und 500 für unzulässig erklärt. Das mag religiös zu begründen sein, sinnvoll ist es nicht.

Bild 7: Nette KI erlaubt Kunden ohne Geld
bis zu 1000€ abzuheben

Was wir aus diesen Beispielen lernen, ist eine in der Informatik bekannte Tatsache, die Fehlerfortpflanzung. Wenn die KI Programme einfach so aus dem Boden schießen und von aller Welt benutzt werden, so besteht die Gefahr, dass die Welt, bzw. das Internet immer mehr mit KI-generiertem Content verschmutzt wird.

Die Folge wäre mit der Zeit die absolute Verblödung. Nicht weil die KI dumm ist, sondern weil sie Fehler macht und dann auch wieder aus diesen Fehlern lernen will. Sie kann nur das wissen, was im Internet steht oder sie aus den Trainingsdaten gelernt hat. Je dümmer das Internet durch die Daten der KI wird, desto dümmer werden auch wir. Auch die KI wird sich damit langfristig selbst auffressen und auch das globale Wissen wird nicht größer sondern dümmer.

Autonomes Fahren

B:: Bisher gibt es ja nur die Schwache KI. Das selbstfahrende Auto ist der Einstieg in die Starke KI und damit gibt es größere Probleme. Was sind das denn für Probleme bei dem selbstfahrenden Auto z.Zt. noch als schwache KI, bzw. KI im Übergang zu einer starken KI?
 Sie kann und muss bei ihrer Tätigkeit selbst entscheiden, daher sagen wir „im Übergang zur Starken KI“.

R: Die Probleme beim autonomen Fahren sind z.B. das bekannte Entscheidungsdilemma: soll die Oma oder ein Kind überfahren werden?
Es geht für’s erste auch einfacher, ohne Verletzungen, wie das folgende Beispiel zeigt: selbstfahrende Taxen machen unangemeldete Versammlung
Bild 8:    16.08.2023 Auch Roboter können Stau  und 04.07.2022 Unangemeldete Versammlung durch autonome Autos

Bild 8: Auch Roboter können Stau
Unangemeldete Versammlung durch autonome Autos

Es hat aber auch schon Unfälle mit Verletzten gegeben, die sich dann als negative Reklame auf die verantwortlichen Firmen auswirken.
So scheitert Elon Musk mit dem Einsatz von KI-Autos als Taxen in der USA.  So geht es auch der Firma Waymo.
Bild 9:    https://www.tagesschau.de/wirtschaft/technologie/tesla-waymo-robotaxi-100.html
Bild 10:  https://www.heise.de/news/Nach-Unfall-Waymo-beginnt-Rueckrufaktion-wegen-Software-Update-9760930.html

Apple hat sich aus einem ähnlichem Projekt zurückgezogen und die Nutzung autonomer Autos vorerst eingestellt. Das Projekt von Apple für autonom fahrende Autos wurde kurz vor der Präsentation von Teslas Robotaxi durch Elon Musk offiziell eingestellt.
https://www.notebookcheck.com/Apple-Car-Zulassung-kurz-vor-Enthuellung-des-autonomen-Tesla-Robotaxis-zurueckgezogen.901291.0.html

GM stoppt autonomes Fahren: Etliche Milliarden Dollar verbrannt. Damit wird das ehemalige Prestige-Projekt "Cruise" zum Milliardengrab.
Und Kalifornien entzieht die Erlaubnis für autonome Taxis an die Firma Cruise:
https://www.aktion-freiheitstattangst.org/de/articles/8567-20231027-stopp-fuer-autonome-taxis-in-san-francisco.html
https://web.de/magazine/auto/cruise-robotaxis-gm-stoppt-autonomes-fahren-milliarden-dollar-verbrannt-40446214

Sammlung der Skandale zu KI finden sie bei uns auf der Webseite
a-fsa.de
und einer kombinierten Suche nach den Worten „KI+Skandale“ , also z.B. mit folgendem Link
https://www.aktion-freiheitstattangst.org/cgi-bin/searchartl.pl?suche=KI+Skandale&sel=meta

Bild 11: Der Mensch fährt besser Auto als die KI

Zum Stand der Technik lässt sich jedenfalls feststellen: der Mensch fährt besser Auto als die KI. Auch dafür gibt es eine Quellenangabe:
Bild 11:        https://www.aktion-freiheitstattangst.org/de/articles/6884-20190515-mensch-faehrt-besser-auto-als-gedacht.html

Haftungsprobleme

B:: Was steht es nun mit der Haftung, wenn es Probleme mit KI Anwendungen gibt ?

Das Bundesamt für Sicherheit in der Informatik (BSI) stellt fest: Es wird immer Fehler geben mit verschiedenen Ursachen! Bei jedem KI-System kann es zu Fehlinterpretationen bei jeder Dateneingabe kommen.
Bild 12: (Bild 3 BSI)        https://www.bsi.bund.de/DE/Themen/Verbraucherinnen-und-Verbraucher/Informationen-und-Empfehlungen/Technologien_sicher_gestalten/Kuenstliche-Intelligenz/kuenstliche-intelligenz_node.html

Dann ergeben sich Haftungsprobleme: https://www.taylorwessing.com/de/insights-and-events/insights/2024/04/planned-guidelines-regarding-ai-liability
Problematisch ist die Komplexität der KI, die es erschwert, die Funktionsweise und erst recht die Ergebnisse der Algorithmen zu durchdringen. Aus der Selbstständigkeit der KI, d.h. weil die Algorithmen oft dauerhaft selbstständig ohne menschliches Eingreifen arbeiten, haben wir das Problem „einen Schuldigen“ zu identifizieren.

B:: Welche Gesetze können uns nun schützen?

Da ist zum ersten die Gefährdungshaftung, u.a. § 7 StVG (Straßenverkehrsgesetz) beim Einsatz autonomer Fahrzeuge, dann als weiteres das BGB und das Produkthaftungsgesetz (ProdHaftG):

  • Gewährleistung wegen Nichterfüllung oder Schlechterfüllung nach §§ 433 ff BGB/§§ 633 ff BGB.

Allerdings wird die Schuld stets schwer nachweisbar sein. Hilfreich ist dazu der folgende Link
Bild: 13        https://www.dr-datenschutz.de/haftungsregeln-fuer-kuenstliche-intelligenz/

B:: Was heißt das konkret? Wenn ein KI-Auto meinen Hund anfährt, ist es schwer nachweisbar wer schuldhaft gehandelt hat und wer haftet?

R: Wir haben einen Black-Box-Effekt,  d.h. KI interne Prozesse sind kaum durchsichtig und nachvollziehbar, deshalb wird es schwer, den Fehler zu finden. Man sucht nach dem Schuldigen – ist es der Programmierer/ das Unternehmen oder die KI selbst - wer ist es?

Es gibt dazu eine Stellungnahme von Verbraucherschützern zu selbstfahrenden Fahrzeugen: Diese sehen 2 Ursachen: Entweder ist es so (falsch) einprogrammiert worden, oder der Grund ist die (normale) Fehlerfortpflanzung! Ungenaue Daten führen zu einer falschen Weiterberechnung… - die Fehlersuche ist in jedem Fall kompliziert!
Den wirklichen Verursacher zu finden, ist beliebig kompliziert!  (Fehlerfortpflanzung ist ein intensives Thema im Studium!!! Anderes Thema)

Noch 2 Links zum Thema autonomes Fahren:

Derzeit haftet in den meisten Fällen der Halter ohne, dass es klar ist, wer den Fehler gemacht hat. Risiko!
Auch allein eine schlechte Netzverbindung kann zu Fehlern führen. Wollen wir uns auf dieses Risiko einlassen?

B:: Es MUSS im Rahmen geltender Gesetze festzustellen sein, wer die Verantwortung trägt. Man muss daher nachvollziehen können, welche Daten wo gespeichert sind und wer Zugriff hat.

In der Regel besitzt der Hersteller die Daten. Bisher ist leider noch nicht so, dass der Hersteller haftet. Wir raten daher ab von jeglicher Nutzung bzw. dem Kauf von solchen Fahrzeugen!!!  

R: Die Hersteller sind total anderer Meinung.
Was verlangen die Automobilkonzerne von einem Gesetzentwurf zum autonomen Fahren?
Das Haftungssystem soll beim Fahrer bleiben, die Fehlersuche wird komplexer
Bild 13: https://www.gdv.de/gdv/positionen/gesetzentwurf-zum-autonomen-fahren-das-haftungssystem-bleibt-die-fehlersuche-wird-komplexer-65568

B: Hat der Fahrer einen Fehler gemacht? Der Halter? Der Hersteller? Ein IT-Dienstleister? Mobilfunkanbieter? Netzbetreiber? Kartenanbieter?
Unsere Meinung dazu ist: Wer auch immer mangelhafte Systeme auf den Markt bringt, muss sich im Rahmen geltender Gesetze verantworten.

Wo diese Verantwortung liegt, wird beim autonomen Fahren aber nur anhand der Fahrzeugdaten erkennbar sein. Daher muss klar und deutlich geregelt sein, welche Daten wann gespeichert werden, wie der Zugriff auf diese Daten erfolgt und dass berechtigte Dritte (auch Unfallbeteiligte und Kfz-Versicherer) Zugang zu den Daten erhalten.

Auch die Hersteller wissen um die Probleme, aber thematisiert wird das in den Medien kaum, denn es würde die Akzeptanz solcher Technik sicher nicht erhöhen.

R: Faktisch bekommen wir das autonome Fahrzeug in Raten, zuerst ein Einparkassistenz, dann automatischer Spurwechsel, dann automatisches Überholen, …
Wenn diese Funktionen im Fahrzeug sind, wird man verführt sie „auch mal auszuprobieren“ und gewöhnt sich an sie ...bis es mal schief geht.

Zum Thema Haftung gibt es noch ein weiteres Problem: Neben dem Strafrecht gibt es auch zwei große Bereiche des Zivilrechts. Das Vertrags- und das Deliktsrecht. Während im ersteren Haftungsfragen im Rahmen von Vertragsverhältnissen geregelt sind, widmet sich letzteres Haftungsfragen außerhalb von solchen, vornehmlich also Haftungsfällen, die durch widerrechtliche Handlungen des Nutzers oder eines Hackers entstanden sind.    
Bild 14:        https://digitalzentrum-chemnitz.de/wissen/haftung-und-ki-welche-grundsaetze-gelten/

Eine KI kann auch Existenzen vernichten, wie in folgendem Fall, den die Zeitschrift ct im Heft 24 aufführt:
Ohne Blick in die Trainingsdaten der KI kann auch niemand prüfen, ob Daten mit Personenbezug - darunter Bilder und Stimmaufnahmen - eingeflossen sind. Halluzinierte Informationen - also rein von der KI "ausgedacht" - über Personen können dabei fatale Folgen haben. Das zeigt der Fall Martin Bernklau. Dem Gerichtsreporter dichtete Microsofts Copilot an, er sei pädophil, nur weil er über einen einschlägigen Gerichtsprozess berichtet hatte und das Sprachmodell Täter und Reporter nicht auseinanderhalten konnte.

Das Problem für die Betroffenen sind wieder die Schwierigkeit der Beweissicherung, vor allem, wenn man gegen den Hersteller vorgehen möchte, der meist im Besitz der Daten ist. Beliebig schwer wird auch die Frage zu beantworten sein:  Hat die KI vorsätzlich oder manipuliert gehandelt?

Wenigstens einen erfolgreich Fall für die Haftung nach einem Schaden durch eine KI haben wir gefunden
Bild 15:    https://mashable.com/article/air-canada-forced-to-refund-after-chatbot-misinformation

AI Act der EU vom Januar 2024

B: Es gibt also dringenden Handlungsbedarf für eine Regulierung der KI. Interessant dazu ist doch sicher der KI-Act der EU:
https://www.aktion-freiheitstattangst.org/de/articles/8714-20240315-erste-ki-verordnung-der-welt.html

Was hat es damit auf sich? Kannst du kurz etwas dazu sagen?
Hilft uns das KI-Gesetz in Bezug auf unseren Auto-Fall oder eines der anderen Beispiele?

R:  Das folgende Bild gibt uns einen Überblick, was im EU AI-Act geregelt wurde. ( Bild:  AI-Act.pdf ) Wir  wollen die Gefahren daran erklären.
Wie bei der EU üblich, sollen wir nun mit einem Kompromiss leben, der vieles anspricht, aber nur wenig regelt. Schauen wir uns die Ergebnisse genauer an.

    • Verboten wird der Einsatz von KI
        ◦ bei der Gefühlserkennung,
        ◦ für Social Credit Systeme.
    • Eine Kennzeichnung wird vorgeschrieben für KI Anwendungen
        ◦ die Texte oder
        ◦ Bilder generieren.
    • Für sogenannte "Hochrisikotechnologien" werden "Auflagen" gemacht, das sind
        ◦ die Gesichtserkennung,
        ◦ das autonome Fahren,
        ◦ medizinische Diagnosen und
        ◦ das Personal-Recruiting.

Der Fehler im System
... springt uns direkt ins Gesicht.

Warum werden ausgerechnet für "Hochrisikotechnologien" Ausnahmen gemacht?

Diese sollten am besten ganz verboten oder zumindest so stark reguliert werden, dass niemand durch sie Schaden erleiden kann. Beim autonomen Fahren ist das Lebensgefahr, wie schon einige Vorfälle gezeigt haben. Gerade die Gesichtserkennung war ein grundsätzlicher Diskussionspunkt zwischen EU-Parlament und Kommission. Die Vertreter des Staates haben sich wieder einmal durchgesetzt. Biometrische Gesichtserkennung soll in "Gefahrenlagen" unter richterlicher Aufsicht möglich sein.

Welche regulatorische "Steuerung" dann künftig verhindern soll, dass KI-Algorithmen unsere Zwangs-ePA (elektronische Patientenakte) aufhübscht, steht völlig in den Sternen. Wie man regulieren will, dass nicht eine KI künftig die Bewerbungsunterlagen von nicht-weißen Männern und Frauen gleich aussortiert, sondern ein Mensch das entscheidet wird auch noch interessant.

Im Zusammenhang mit dem oben zitierten Fall des Gerichtsreporters  kommt die ct in Heft 24/2024 zu folgender Feststellung:
"Selbst die neue KI-Verordnung der EU bleibt in Bezug auf Transparenz schwammig. Statt von den Betreibern zu verlangen, dass sie alle Trainingsdaten auf den Tisch legen müssen, spricht sie in § 53d nur sehr vage von einer „hinreichend detaillierten Zusammenfassung", die die Entwickler zusammenstellen müssen. … Es bleibt zu hoffen, dass die europäischen Aufsichtsbehörden bis August nächsten Jahres die Transparenzanforderungen, die in der Kl-Verordnung nur vage formuliert sind, konkretisieren und mit Nachdruck einfordern."

Positiv im KI-Act sind die Verbote beim Einsatz von KI bei der Gefühlserkennung und für Social Credit Systeme. Alle anderen Punkte werden sich leider erst aufklären, wenn Gerichte sich damit beschäftigen müssen.

B: Wem gehören die Ergebnisse? Die Frage des

Copyright/Urheberrecht

R: Kurz und knapp gibt folgender Link eine Darstellung der Problematik: https://www.urheberrecht.de/kuenstliche-intelligenz/

Copyright ist in Deutschland im Urheberrecht geregelt. Werke können nur persönliche geistige Schöpfungen sein. So sagt es  der § 2 Abs. 2 UrhG. Geschützte Werke im Sinne des Urheberrechtsgesetzes sind nur persönliche geistige Schöpfungen eines Menschen. Rein KI-basierte Inhalte genießen daher keinen urheberrechtlichen Schutz.

Bild 16: KI-generiertes Bild

Das Urheberrecht greift unmittelbar mit der Schöpfung des Werkes. Hier muss untersucht oder bewiesen werden, dass der Mensch wesentliche Ideen/Gestaltung in den Schaffensprozess der KI mit eingebracht hat. Ob diese Schutzschwelle erreicht ist, ist im Einzelfall zu prüfen. Eine Urheberschaft des Nutzers der KI kommt in Betracht, wenn sich die Software lediglich als Hilfsmittel darstellt und ihr Einsatz im Entstehungsprozess des Werks von untergeordneter Bedeutung ist.

B: Das erscheint doch noch sehr schwammig.
Kannst du uns noch etwas zum Begriff Deep Fakes erzählen?

R: Hier sehen wir so ein von einer KI "gemaltes" Bild. Deep Fakes können sein: die Fälschung von Gesichtern, die Fälschung von Stimmen, die Fälschung von Texten. Die Urheber solcher Texte und die Besitzer dieser Stimmen oder Gesichter können mit KI mit wenig Aufwand und Expertise in einer hohen Qualität nachgeahmt werden. Wieder müssen wir uns mit dem Grundsatz der Unschuldsvermutung auseinandersetzen. Der Urheber oder Besitzer wird durch den Deep Fake  geschädigt und muss sich rechtfertigen, bzw gegen die Fälschung vorgehen.

Bei der Nutzung des KI-generierten Ergebnisses ist auch zu prüfen, ob und inwieweit vorbestehende Werke darin erkennbar sind. Hiervon hängt etwa ab, ob für die Nutzung des KI-generierten Inhalts Erlaubnisse anderer Rechtsinhaber eingeholt werden müssen oder nicht.
Wenn urheberrechtlich geschützte Inhalte als Ausgangsmaterial genutzt werden, kann die Erstellung und Verbreitung eines Deep Fakes eine Urheberrechtsverletzung darstellen.
Hier links unten sehen wir ein von einer KI (schlecht) erzeugtes Bild.

Bild 17: KI-generiertes Bild mit sehr
schlecht dargestellten Gesichtern

Aber: Weder die Stimme noch das Bildnis einer Person sind urheberrechtlich schutzfähig aber evtl. die Quelldaten aus denen der KI-Inhalt generiert wurde. Trotzdem ist wichtig: es gibt noch andere Rechtsgüter, man muss stets bedenken, dass Deep Fakes das allgemeine Persönlichkeitsrecht einer Person verletzen können .
Bild 20:    https://www.bmj.de/SharedDocs/Downloads/DE/Themen/Nav_Themen/240305_FAQ_KI_Urheberrecht.pdf?__blob=publicationFile&v=2

Aber wir wollen es uns nicht zu leicht machen: Auf der anderen Seite gibt es noch eine weitere Grauzone: Die Eingabe der Nutzerin bzw. des Nutzers in die KI kann als geistige Schöpfung gesehen und die KI kann nur als „Werkzeug bzw. untergeordnetes Hilfsmittel“ zur Erstellung eines Werkes betrachtet werden. Dann entsteht ein urheberrechtlich geschütztes Werk („KI-assistierte Werkschöpfung“ nach Malte Baumann: Generative KI und Urheberrecht – Urheber und Anwender im Spannungsfeld, NJW 2023, 3673)
Bild 21:     https://www.kulturrat.de/positionen/kuenstliche-intelligenz-und-urheberrecht/

Vererbung  des Copyrights:
Wurde das Urheberrecht bei der Fütterung der KI, dem Lernen, verletzt, so wird diese Verletzung des Urheberrechts an die Nutzerin bzw. den Nutzer weitergegeben. Sofern die Nutzerin bzw. der Nutzer die urheberrechtsverletzenden Inhalte ihrerseits vervielfältigt oder weiterverwendet und dies über den ausschließlich privaten Gebrauch hinausgeht, führt auch das zu einer Urheberrechtsverletzung.

Beispielsweise könnte eine Urheberrechtsverletzung begangen werden, wenn die KI einen Text generiert, welcher einem bestehenden und urheberrechtlich geschützten Text sehr nahekommt (z. B. ein Songtext oder eine reine Übersetzung eines Textes usw.).

Es wird davon ausgegangen, dass es hierzu künftig gerichtliche Auslegungen sowohl auf EU-Ebene als auch auf nationaler Ebene geben wird. Bis dahin besteht hier wie auch bei einigen Aspekten des KI-Act eine rechtliche Grauzone.

Das Verbraucherportal Baden-Würtemberg listet auf ihren Webseiten einige Fallen bei der Verwendung von KI auf.
Bild 17:    folgende Links
https://www.verbraucherportal-bw.de/,Lde/Startseite/Verbraucherschutz/Das+Urheberrecht+und+die+Fallen+bei+Nutzung+von+generativer+KI
Das ZDF schreibt: Vorsicht bei der Wiedergabe von bekannten Personen oder Filmfiguren, denn deren Werke sind dann oft digitales Freiwild und werden unberechtigterweise genutzt.
https://www.zdf.de/nachrichten/wirtschaft/urheberrecht-kuenstliche-intelligenz-ki-internet-100.html

B: Kommen wir zum Abschluss des 2. Teils:

  • Im ersten Teil hatten wir versucht die Begriffe KI und Intelligenz zu klären und uns angeschaut, wie ein Computer überhaupt in die Lage kommen kann "Probleme" zu lösen.
  • Heute sind wir zwar mit den Gefahren von KI (autonomes Fahren) eingestiegen, aber unser Schwerpunkt waren neben dem KI-Act der EU die Fragen der Haftung und des Urheberrechts.
  • Im nächsten Teil, Teil 3, wird es dann in einigen Wochen darum gehen, die Probleme und Gefahren bei konkreten Anwendungen abzuschätzen und zu überlegen, welche ethischen Fragen durch den Einsatz von KI für uns alle daraus entstehen.
  • Was können wir, was sollten wir, was sollten wir lieber lassen ...

Hinweis auf die Inhalte in Teil 3

  • Thema Ethik  
    •     Mensch-Maschine, Determiniertheit
    •     KI in der Arbeitswelt
      •         Arbeitsbedingungen
      •         Arbeitsplatzvernichtung
    •     KI bei Waffenproduktion, Krieg,
    •     Energieverschwendung
    •     Was bringt die Zukunft?
    •     Forderungen

Mehr dazu bei Teil 1 https://www.aktion-freiheitstattangst.org/de/articles/8950-20241031-thema-kuenstliche-intelligenz.html
und in einigen Wochen in Teil 3 ...
 


Kategorie[26]: Verbraucher- & ArbeitnehmerInnen-Datenschutz Short-Link dieser Seite: a-fsa.de/d/3EE
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/9013-20241230-thema-kuenstliche-intelligenz.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9013-20241230-thema-kuenstliche-intelligenz.html
Tags: #KI #AI-Act #EU #Gefahren #Fehler #Hacker #Haftung #autonomesFahren #Kfz #Urheberrecht #Copyright #sensibleDaten #Zugriff #Hersteller #Polizei #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Datenpannen #Datenskandale #Transparenz #Informationsfreiheit #AlexTV #Video #Transkript
Erstellt: 2024-12-30 10:19:29
Aufrufe: 107

Kommentar abgeben

Für eine weitere vertrauliche Kommunikation empfehlen wir, unter dem Kommentartext einen Verweis auf einen sicheren Messenger, wie Session, Bitmessage, o.ä. anzugeben.

Geben Sie bitte noch die im linken Bild dargestellte Zeichenfolge in das rechte Feld ein, um die Verwendung dieses Formulars durch Spam-Robots zu verhindern.

CC Lizenz   Mitglied im European Civil Liberties Network   Bundesfreiwilligendienst   Wir speichern nicht   World Beyond War   Tor nutzen   HTTPS nutzen   Kein Java   Transparenz in der Zivilgesellschaft

logos Mitglied im European Civil Liberties Network Creative Commons Bundesfreiwilligendienst Wir speichern nicht World Beyond War Tor - The onion router HTTPS - verschlüsselte Verbindungen nutzen Wir verwenden kein JavaScript Für Transparenz in der Zivilgesellschaft