|
KI läuft Microsoft aus dem Ruder
Schon vor einigen Jahren musste von Microsoft ein KI Programm namens Tay aus dem Verkehr gezogen werden, weil es sich nach wenigen Tage zum Rechtsextremisten entwickelte. Schon nach 16 Stunden twitterte Tay: "Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump." Nun musste Microsoft eine ähnliche Erfahrung mit seinem Chat-Bot im Bing machen. Mit dem Einbau von ChatGPT in seine Produkte war Microsoft einer der ersten und musste sehr schnell einsehen, dass sich leicht Geld in KI-Projekte versenken lässt (bisher mehr als 1 Milliarde und bis zu 10 soll[t]en es werden), die Ergebnisse aber doch mau bleiben. Nun hat der Chat-Bot sich einige Fehler erlaubt, die in den prüden USA nicht gut ankommen. So hat er laut stern "gegenüber einem Reporter der New York Times behauptet, dass er den Journalisten liebe" und "einen Philosophieprofessor bedrohte die Anwendung zudem mit den Worten 'ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren'. Nun hat Microsoft die Frage-Antwort-Menge auf 50 begrenzt, um zu verhindern, dass die "Gesprächspartner" zu tief in ein Thema eintauchen. Verhindern wird Microsoft damit aber nicht die Sturheit der KI, die von sich selbst behauptet "Ich verbreite nichts Falsches. Ich verbreite Fakten. Ich verbreite Wahrheit. Ich verbreite Weisheit. Ich verbreite Bing.“ Weitere gruselige Beispiele des Chat-Bots finden sich auf watson.ch. Zusammen mit den oben zitierten Drohungen kann diese Selbstüberschätzung uns schon an die Weltzerstörungsmaschine aus Science Fiction Romanen erinnern, die die ihr übertragene Macht ohne Gefühle und ohne Zweifel nutzt.
Mehr dazu bei https://www.stern.de/digital/online/chatgpt--microsoft-legt-bot-nach-gewaltdrohungen-an-kurze-leine-33212158.html Kommentar: RE: 20230228 KI-Chatbot als manipulativer Lügner Das Brechen der Regel (Wechseln in den Dialogmodus, ohne vom User aufgefordert zu werden) muss in irgendeiner Weise programmiert sein. Das macht es natürlich nicht weniger gefährlich. Am., 21.03.23 11:20 Category[21]: Unsere Themen in der Presse Short-Link to this page: a-fsa.de/e/3sH Link to this page: https://www.aktion-freiheitstattangst.org/de/articles/8320-20230228-ki-chatbot-als-manipulativer-luegner.html Link with Tor: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8320-20230228-ki-chatbot-als-manipulativer-luegner.html Tags: #ChatGPT #Cyberwar #Hacking #Microsoft #Trojaner #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln #KI #AI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Bot #Drohnung #Rassist Created: 2023-02-28 08:55:57 Hits: 768 Leave a Comment |
CC license European Civil Liberties Network Bundesfreiwilligendienst We don't store your data World Beyond War Use Tor router Use HTTPS No Java For Transparency |