|
Daten-Fairness in einer globalisierten WeltSo lautet der Titel des diesjährigen Forum Privatheit. Die Konferenz findet heute und morgen im Humboldt Carre in Berlin statt. Nachdem die letzten beiden Konferenzen im wesentlichen Online stattgefunden hatten, sind in diesem Jahr wieder viele Besucher vor Ort. Zusätzlich werden die Beiträge gestreamt. Die Themen der Veranstaltung finden sich hier https://www.forum-privatheit.de/jahreskonferenz-2022/ Informatiker gestalten die Welt – das darf nicht auf die Technik reduziert werden. Der Schwerpunkt liegt also auf dem schwer zu definierendem Begriff der Fairness. Fairness deutet an, dass sich die "Partner", also der Nutzer des Internets und die Anbieter auf einen gemeinsamen Ausgleich ihrer Interessen einigen. Davon sind wir bei den heutigen Strukturen des Internets und den Macht- und Besitzverhältnissen meilenweit entfernt. Insofern ist es zu begrüßen, dass im Beitrag des Geldgebers, des Bundesministeriums für Bildung und Forschung (BMBF) weitere 75 Millionen Euro für den dringend notwendigen Forschungsschwerpunkt Anonymisierung zugesagt wurden. Wie man sich derzeit gegen den Missbrauch seiner Daten durch die Big5 oder auch GAFAM, also Google, Amazon, Facebook, Apple und Microsoft wehren kann, um zu einen faireren Umgang miteinander zu kommen, waren die Inhalte der Beiträge des Tages.
Die Aufzählung ist nicht vollständig, weil mehrere Panels gleichzeitig abliefen aber nur 2 Aktive von Aktion FsA bei der interessanten Veranstaltung dabei sein können. Die Erkenntnisse der Tage
Und am nächsten Tag (14.10.) ging es weiter ... Alex Hanna zu den Problemen der Gesichtserkennung: Hunderte Millionen von Fotos werden täglich dazu benutzt, Um die die Gesichtserkennungstechniken zu verbessern. Dabei sind die meisten Gesichter Weiß und männlich. Dies definiert einen unfairen Umgang bei der Gesichtserkennung, denn die Ungleichheit ist in den Datensätzen bereits vorgegeben. Gesichtserkennung mittels künstlicher Intelligenz ist außerdem alles andere als nachhaltig. Der CO2 Fußabdruck dieser Technik ist gewaltig. Anonymisierung von Gesundheitsdaten durch das Hinzufügen eines Rauschen ist ein Mittel persönliche Daten zu anonymisieren, um sie der Forschung zugänglich zu machen. Das unabhängige Landesamt für Datenschutz (ULD) in Schleswig-Holstein berichtet über Fairness bei Design.
Die Halbwertszeit von aktuellen Ereignissen und Reaktion darauf ist kurz. Deshalb ist der Vertrauensbegriff unbegründet oder sogar unsinnig als ein Maß für die Möglichkeiten der Zusammenarbeit. Der Transfer von Daten in Drittstaaten: Nach dem EuGH Urteil "Schrems II" dürfen keine Daten in die USA exportiert werden ohne die Einwilligung des Besitzers. Die Abkommen mit den USA, wie Safe Haber, Privacy Shield, sollen jetzt ergänzt werden durch das Data Privacy Framework. Auch darin sind das Handeln der US-Sicherheitsbehörden nicht geregelt. Die einzige Verbesserung ist statt eines ominösen Gremiums ein angebliches Gericht, das allerdings immer noch nicht unseren europäischen Standards genügt. Wieder wird darauf abgehoben, dass wir der anderen Seite, in diesem Falle den USA, vertrauen. Vertrauen ist jedoch nicht ausreichend, weil wir unsere Grundrechte damit praktisch abgeben oder auf deren Durchsetzung verzichten. Mar Hicks: Woman Gender Power: Während in den vierziger Jahren vor allen Frauen in der Computer-Industrie tätig waren, wechselte dies bis in die Sechzigerjahre ( Zeit der Großrechner/Mainframes) zu einer Männer Domäne. Am Beispiel des Falles von John Ferguson erläutert Mar Hicks die Diskriminierung von Menschen, die im Laufe ihres Berufslebens das Geschlecht wechseln. Bis in die siebziger Jahre (Equal Pay Law) gab es in Großbritannien große Gehaltsunterschiede zwischen Männern und Frauen. Wurde im Berufsleben das Geschlecht geändert, so ergaben sich Fehler in der Rentenberechnung. Daraus ergab sich, dass (geheim) Listen geführt wurden, die den Geschlechtswechsel dokumentierten. In der Programmierung führte dies schließlich zu der Geschlechtsbezeichnung Trans, die allerdings bei der Rentenberechnung den Wechsel nicht entsprechned berücksichtigte, sondern zu einem Fehler führte, der dann jeweils manuell korrigiert werden musste. Die Listen, Beziehungsweise die Einträge in die Rentendatenbank wurden in diversen Fällen mit Polizei Datenbanken abgeglichen, was zu einer lebenslangen Diskriminierung für die Betroffenen führte. Auch bei anderen technischen Innovationen gab es diese Diskriminierung, so zum Beispiel beim Nackt-Scanner, bei der biometrischen Gesichtserkennung und im Identity Assignment. Abschließend ist zu hoffen, dass die Vorträge auch später noch Online zu finden sind. Mehr dazu bei https://www.forum-privatheit.de/jahreskonferenz-2022/ Category[26]: Verbraucher- & ArbeitnehmerInnen-Datenschutz Short-Link to this page: a-fsa.de/e/3qe Link to this page: https://www.aktion-freiheitstattangst.org/de/articles/8176-20221013-jahreskonferenz-forum-privatheit.html Link with Tor: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8176-20221013-jahreskonferenz-forum-privatheit.html Tags: #Arbeitnehmerdatenschutz #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Fairness #Ergonomie #Informationsfreiheit #Anonymisierung #ForumPrivatheit #Persoenlichkeitsrecht #Privatsphaere #Verschluesselung #Grundrechte #Menschenrechte #DSGVO #BDSG #SafeHarbor #Drittstaaten #Blockchain #Ökonomie Created: 2022-10-13 18:16:53 Hits: 1751 Leave a Comment |
CC license European Civil Liberties Network Bundesfreiwilligendienst We don't store your data World Beyond War Use Tor router Use HTTPS No Java For Transparency |