DLF Hörsaal - Prädiktive Privatheit
Wieso wir Datenschutz auch kollektiv denken sollten. Vortrag und Interview auf der re:publica 2022
Quelle
| Format | Veröffentlichung | Link |
|---|---|---|
| Vortrag, Interview | 2022 | https://www.deutschlandfunknova.de/beitrag/praedikative-privatheit-wieso-wir-datenschutz-auch-kollektiv-denken-sollten |
Wahrgenommen von Heinrichsgeist: 2023. Zitate auf dieser Seite beziehen sich auf diese Quelle, sofern nicht anders gekennzeichnet (Zitationszweck: Anschauliche Hervorhebung ausgewählter Passagen).
Interessant - re:publica Vortrag (10.6.2022)
Prädiktive Analytik: Angriffsvektor der Prädiktion
Mittels prädiktiver Analysetechnik (KI und big data basiert) kann aus dem Verhalten eines Menschen ziemlich treffend auf seine Vorlieben/Schwächen oder weitere Merkmale geschlossen werden. Dies kann (auch) gegen den Willen des Betroffenen unbemerkt ausgenutzt werden. Die prädiktive Analysetechnik ist umso treffender, je bigger the data (Datenbestand an real erfassten Verhaltensdaten realer Personen).
Die Technik wird skaliert eingesetzt, d.h. die Betreiber interessieren sich nicht für den Einzelnen, weder in der Datenerfassung noch in der Datenverwertung. Das Geschäftsmodell funktioniert statistisch, aus Sicht der Betreiber lohnt sich die prädiktive Analyse bei Massenanwendung. Wichtig - sie funktioniert auch dann, wenn sie mit anonymisierten Daten trainiert wurde.
Diese Technik ermöglicht kollektive Diskriminierung.
Prädiktive Privatheit
“Die prädiktive Privatheit einer Person oder einer Personengruppe die ist verletzt, wenn sensible Informationen ohne ihr Wissen und gegen ihren Willen über sie vorhergesagt werden” (14:50)
Datenspuren sind soziale Externalitäten
Autofahrer blasen CO2 in Luft, was nicht den Fahrer direkt, sondern der Gesellschaft als Kollektiv schadet, das ist eine Externalität des Autofahrens. Ähnlich verhält es sich mit Datenspuren die der Einzelne hinterläßt, sie können der Gesellschaft als Kollektiv schaden (wir werden vorhersagbarer). Das ist eine soziale Externalität.
Das bekommt man mit bisherigem Datenschutz nicht in den Griff, der den Blick auf die einzelne Person richtet. Beispielsweise greift die Zustimmung des Einzelnen zu einer Datenverarbeitung zu kurz, da die Konsequenzen über das Individuum hinausgehehn.
Datenschutz kollektiv denken
Datenschutz sollte als kollektives Rechtsgut begriffen und geschützt werden. Vorschläge:
- Begriff Privatheit um prädiktive Privatheit erweitern
- Staatliche Regulierung anonymisierter Datenbestände (ökonomische Assets)
- Praxis der Einwilligung ändern. Die passt nicht, weil Konsequenzen des Einwilligungs-Akts auch viele Nicht-Einwilligende betreffen.
- Kollektive Abwehrrechte, z.b. Auskunfts- oder Klagerechte von Interessensverbänden
Deutschlandfunk Interview (9.6.2022)
Rainer Mühlhoffs Antwort auf ich hab doch nichts zu verbergen (DLF Interview, Minute 33)
“Mann sollte sich halt bewußt sein, dass man mit der Entscheidung bestimmte Daten einem vernetztem, digitalem Service preiszugeben eine Entscheidung für viele viele andere Menschen trifft und nicht nur für einen selbst. Das heißt, ob Sie was zu verbergen haben ist schlechterdings hier irrelevant; wenn Sie nichts zu verbergen haben, dann führen Ihre Daten halt dann trotzdem dazu, dass andere Menschen, die mit Fug und Recht vielleicht diese Daten geheimhalten möchten, weil sie sonst Diskriminierung erleiden, ein Stückchen weniger anonym durch das Netz sich bewegen können oder sogar durch die Gesellschaft sich bewegen können. Das heißt Sie treffen eine Entcheidung für viele Andere. Das ist der simple Einwand gegen das Argument ‘Ich hab’ doch nichts zu verbergen…”
Weitere Themen
- Entwicklung Datenschutzverständnis folgt zeitlich den technischen Möglichkeiten. KI und Big Data sind neue technischen Möglichkeiten des 21. Jahrhunderts, sie ermöglichen diesen neuen Angriffsvektor
- Schutz der Gundrechte sind historisch Individualrechte. Konstruktion eines Schutzguts “kollektiven Datenschutzes” ist erforderlich.
- Volkszählungsurteil und informationelle Selbstbestimmung (nur freie Bürger und Bürgerinnen können demokratisch partizipieren)
- Privacy Paradox
- Intersektionalität, Emergenz (Diskriminierung “schwarze Frau” ist mehr als Diskriminierung “schwarz” + Diskriminierung “Frau”. Es ergibt sich mehr als die Summe der einzelnen Teile)
- Beispiel prädiktive Analyse bei der Vor-Filterung von Job-Bewerbungen: Was hier passiert: Entscheidungsvorgänge werden in den Bereich des Intransparenten verschoben, und das Urteil der Technik ist nur scheinbar objektiv. Denn die verwendeten Modelle wurden mit realen Daten trainiert, somit sind auch reale Diskriminierungsmuster eintrainiert.
ähnlich
The Age of Surveillance Capitalism (economies of scale)
