|
"wrongly identified" wird zum StandardAch, du warst es nicht - dumm gelaufen für dich, kann ja mal vorkommen. Das hätten 92% der "potentiell Verdächtigen" beim Fußballspiel zwischen Real Madrid und Juventus Turin im letzten Jahr hören müssen. Das Gesichtserkennungsprogramm der britischen Polizei hatte 2470 Personen aus 170.000 Besuchern als verdächtigt erkannt, 2,297 = 92% were found to be "false positives". Diese Meldung hat unsere Befürchtungen zum Gesichtserkennungs-Pilotprojekt Südkreuz voll bestätigt. Es kommt aber noch schlimmer: "Metropolitan Police's facial recognition technology 98% inaccurate, figures show" berichtete der britische Independent von 3 Tagen. Dahinter steckt die Tatsache, dass The Metropolitan Police’s system has produced 104 alerts of which only two were later confirmed to be positive matches, a freedom of information request showed. The Independent can reveal, with the country’s biometrics regulator calling it "not yet fit for use". In dem Bericht wird über weitere Beispiele mit großen Zahlen von Falscherkennung, sogenannten "False Positives" berichtet. Wichtiger ist jedoch, dass auch in Großbritannen Datenschützer und Wissenschaftler vor der kritiklosen Nutzung der Gesichtserkennungstechniken warnen. Tao Zhang, von der Nottingham Trent University, bemängelte gegenüber dem Independent das Fehlen jeglicher öffentlicher Debatte über Gesichtserkennungstechniken und die Gefahren, die durch solche System nicht nur in autoritäten Gesellschaften drohen können. Er stellte fest, das solche Techniken für das Gesundheitswesen ihren Sinn hätten, jedoch staatliche Stellen und besonders kommerzielle Unternehmen damit illegale Möglichkeiten bekämen. Die Metropolitan Police hat trotz der drastischen Misserfolge keine Beendigung ihrer Erfassungen geplant, obwohl das System "not yet fit for use" ist. Sie wird lediglich keine Festnahmen mehr nach Meldungen durch das System durchführen. Erinnern wir uns, dass "the technology had led to more than 450 arrests since its introduction". Mehr dazu bei https://blog.fefe.de/?ts=a4042603
Kommentar: RE: 20180516 Gesichtserkennung kann auch zu 98% falsch sein Bayern hat die Lösung für solche False Positives: Denen kann die Polizei doch nach dem neuen PAG die Beweise einfach unterschieben, denn "Daten können nicht nur durchsucht und gespeichert, sondern auch gelöscht oder verändert werden". Und schon haben wir 100% Erfolgsrate und keine Störenfriede mehr. Bernd, 16.05.2018 09:40 RE: 20180516 Gesichtserkennung kann auch zu 98% falsch sein Das wird die Technik-Gläubigen doch nicht weiter stören. Wer von den scheinbar Kritischen macht sich heute noch vom Navi unabhängig??? Al., 16.05.2018 15:49 RE: 20180516 Gesichtserkennung kann auch zu 98% falsch sein Warum sind die Menschen so blöd auf Politiker reinzufallen, die so was als Sicherheit verkaufen? Fatima, 26.05.2018 09:24 Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/2V1 Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/6481-20180516-gesichtserkennung-kann-auch-zu-98-falsch-sein.html Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/6481-20180516-gesichtserkennung-kann-auch-zu-98-falsch-sein.html Tags: #Gesichtserkennung #FalsePositives #Großbritannien #Grundrechte #Menschenrechte #Lauschangriff #Überwachung #Vorratsdatenspeicherung #Videoüberwachung #Rasterfahndung #Datenbanken #Entry-ExitSystem #Freizügigkeit #Unschuldsvermutung #Verhaltensänderung #SüdkreuzForderungen Erstellt: 2018-05-16 08:21:39 Aufrufe: 1694 Kommentar abgeben |
CC Lizenz Mitglied im European Civil Liberties Network Bundesfreiwilligendienst Wir speichern nicht World Beyond War Tor nutzen HTTPS nutzen Kein Java Transparenz in der Zivilgesellschaft |