Zwei NGOs haben die geplanten Ănderungen des âdigitalen Omnibusâ mit den Forderungen von Tech-Konzernen Artikel fĂŒr Artikel verglichen
Max Schrems von der Wiener NGO Noyb kommentierte jedoch bereits im November: âIn Wirklichkeit schlagen die Beamten der Kommission nun Ănderungen an Kernelementen wie der Definition personenbezogener Daten vor â und geben KI-Unternehmen wie Google und OpenAI einen Blankoscheck fĂŒr das Training von KI-Systemen unter Verwendung personenbezogener Daten von Menschen.â
Politico bezeichnete den Omnibus im Herbst gar als Ende des âBrĂŒssel-Effektsâ, der Idee, dass die EU eine Vorreiterrolle bei der Technologieregulierung ĂŒbernehmen und weltweit die Standards fĂŒr Datenschutz und KI setzen wĂŒrde. Stattdessen gebe âWashington jetzt das Tempo der Deregulierung in Europaâ vor.
Die NGOs Corporate Europe Observatory und Lobby Control haben es sich nun zur Aufgabe gemacht, dieser These auf den Grund zu gehen
Im Zuge des Omnibusses beabsichtigt die Kommission, pseudonymisierte Daten, bei denen der Name eines Nutzers etwa durch einen Code ersetzt wurde, nicht mehr als personenbezogen einzustufen und somit von der DSGVO auszunehmen.
Das Unternehmen muss dazu darlegen, dass es die Person nicht identifizieren kann.
Mit pseudonymisierten Daten kannn aber Datenschutz nicht sichergestellt werden, weil entweder direkt ( es gibt irgendwo - vielleicht in einem âSafeâ - noch die Zuordnungsliste ID -Name ) oder indirekt (ĂŒber seltene oder einzigartige/identifizierende Daten in DatenbestĂ€nden mit pseudonymisierten Daten und deren âVerschneidungâ/VerknĂŒpfung mit anderen pseudonmisierten DatenbestĂ€nden) noch Möglichkeiten existieren könnten, einzelne Personen mit hoher Wahrscheinlichkeit identifizieren zu können.
Und dann gibtâs da noch ein logisches Problem :
Wie könnte eine Datenschutzbehörde ĂŒberhaupt VerstöĂe gegen das Verbot der Möglichkeit zur identifizierung einzlener Personen aus pseudonymisierten DatenbestĂ€nden ĂŒberprĂŒfen ?
Solange diese Identifizierbarkeit der Daten einzelner Personen nicht technisch nachweisbar ausgeschlossen werden kann , werden einzelne Personen und deren sensitive Daten weiterhin auch von Staaten/Unternehmen/Organisationen und Kriminellen identifiziert und fĂŒr ihre Zwecke und Interessen genutzt werden.
Wenn eine Datenschutzbehörde bei PrĂŒfungen keine Hinweise z.B. auf explizite Zuordnungslisten âIDâPersonâ findet, heiĂt das velleicht nur, dass sie nicht genau genug danach gesucht hat.
Wenn eine Datenschutzbehörde feststellt, dass es fĂŒr ein untersuchtes Unternehmen keine Identifizierungsmöglichkeit von Personen aus (der Behörde offengelegten) pseudonymisierten DatenbestĂ€nden gibt, dann weiĂ sie vielleicht nur nicht, zu welchen weiteren DatenbestĂ€nden dieses Unternehmen Zugang hat - oder geheim selbst angelegt hat, mit deren Hilfe die Identifiziereung von Personen dann auch aus pseudonymisierten DatenbestĂ€nden mit hoher Treffer-Wahrscheinlichkeit möglich ist.
Noyb schrieb dazu, dass hiermit eine objektive Definition personenbezogener Daten von einer subjektiven Definition abgelöst werden wĂŒrde: âEine solche Einzelfallentscheidung ist inhĂ€rent komplexer und alles andere als eine âVereinfachungâ. Zudem wĂŒrde dies bedeuten, dass Daten je nach interner EinschĂ€tzung eines Unternehmens oder je nach den jeweils gegebenen UmstĂ€nden zu einem bestimmten Zeitpunkt als âpersonenbezogenâ gelten oder nicht.â
So schrieb die Lobbygruppe Digital Europe, der von Google bis Amazon sĂ€mtliche namhaften Tech-Konzerne angehören, in einem Empfehlungsschreiben: âEs ist klarzustellen, dass pseudonymisierte Daten keine personenbezogenen Daten sind, wenn EmpfĂ€nger Personen nicht mit vertretbarem Aufwand wieder identifizieren können.â Auch Microsoft Deutschland argumentierte dementsprechend.
Internationale Konzerne wĂ€ren also mit pseudonymisieren Daten âzufriedenâ , wenn ihr Inhalt nicht als âpersonenbezogene Datenâ eingestuft werden wĂŒrde.
Ăsterreich hat aber - wenn ich mich hier richtig erinnere - diesen Fehler schon vor lĂ€ngerer Zeit gemacht : Pseudonymisierung von Daten gilt bei uns als geeignetes Mittel zur Einhaltung der Vorschriften zum Schutz persönlicher Daten.
So geht es im digitalen Omnibus auch um jene Daten, mit denen KI-Modelle trainiert werden. Die Kommission möchte hierfĂŒr auch personenbezogene Daten, einschlieĂlich sensibler Informationen wie SexualitĂ€t, politische Ăberzeugungen oder ethnische Zugehörigkeit, zur VerfĂŒgung stellen âsofern sich Menschen nicht ausdrĂŒcklich dagegen entschieden haben.
Wie kann sich aber jemand âausdrĂŒcklichâ gegen etwas entscheiden , von dem er gar nicht weiĂ, dass er betroffen ist und dessen Bedeutung - und vielleicht auch nachteilige Folgen - er nicht annĂ€hernd verstehen und abschĂ€tzen kann ?
Warum hier kein Opt-In mit Hororar fĂŒr jene Personen, die ihre Daten den Konzernen ĂŒberlassen ?
Der vorgesehene, neue Artikel Nummer 88c der DSGVO soll lauten: âIst die Verarbeitung personenbezogener Daten fĂŒr die Interessen des Verantwortlichen im Zusammenhang mit der Entwicklung und dem Betrieb eines KI-Systems erforderlich, kann diese Verarbeitung als berechtigtes Interesse im Sinne des Artikels 6(1)(f) verfolgt werden.â
Die Interssen der betroffenen Personen existieren gar nicht mehr.
Der AI Act wurde im Sommer 2024 verabschiedet, im vergangenen November kĂŒndigte die Kommission jedoch an, die EinfĂŒhrung des Gesetzes zur Regulierung KĂŒnstlicher Intelligenz um mehr als ein Jahr zu verschieben. Corporate Europe Observatory und Lobby Control kommentieren: âDas bedeutet, dass Big Tech mehr als 12 Monate Zeit hat, um weiterhin potenziell riskante Systeme ohne jegliche Sicherheitsvorkehrungen auf den Markt zu bringen. Verzögerungen sind eine bewĂ€hrte Lobbying-Taktik der Industrie. Sie verschaffen den groĂen Technologieunternehmen mehr Zeit, um das KI-Gesetz weiter zu verwĂ€ssern.â