Dieser Artikel stammt von Netzpolitik.org.
Die neue KI-Verordnung soll invasive Überwachung in der EU ermöglichen. Abgeordnete der Regierungsparteien wollen deshalb strengere Regeln für Deutschland, etwa ein Verbot von Emotions- und Gesichtserkennung in Echtzeit.
Die Ampel-Parteien wollen auf Deutschland-Ebene teils nachbessern, was bei der KI-Verordnung nicht gelungen ist. So will die SPD im Bundestag biometrische Echtzeit-Identifizierung und Emotionserkennung verbieten, schreibt der Abgeordnete Parsa Marvi auf Anfrage von netzpolitik.org. Er begleitet die KI-Verordnung für die SPD-Fraktion im Digitalausschuss.
Die Grünen bekräftigen das, drücken sich aber weniger konkret aus. Der Abgeordnete Tobias Bacherle, Obmann im Digitalausschuss, schreibt: „Als Grüne werden wir uns entsprechend für Regelungen einsetzen, die einen effektiven Grundrechtsschutz sicherstellen“. Die FDP im Bundestag setzt einen drauf und will KI-gestützte Biometrie nicht nur in Echtzeit, sondern auch im Nachhinein unterbinden.
Hintergrund ist die neue KI-Verordnung (AI Act) der Europäischen Union. Im Trilog haben sich Parlament, Rat und Kommission jüngst auf einen gemeinsamen Text geeinigt, der Rat hat den Kompromiss schon bestätigt. Das EU-Parlament wollte Grundrechte besser schützen, konnte sich aber nicht durchsetzen. So gab es auch nach der Trilog-Einigung Streit, über die quälendsten Fragen haben wir Ende Januar berichtet.
Jetzt sind die Mitgliedstaaten wieder am Zug: Sie können Lücken der Verordnung stopfen. Diese Regeln gelten dann zwar nicht für alle in der EU, aber immerhin für die jeweils eigenen Bürger*innen. Wir haben uns deshalb bei den Ampel-Parteien, der Union und der parlamentarischen Gruppe der Linken erkundigt, wie sie die größten Schmerzpunkte durch nationale Gesetze lösen wollen.
Klares Nein zu biometrischer Echtzeit-Überwachung
Menschen lassen sich durch ihre körperlichen Merkmale eindeutig identifizieren, etwa mit Hilfe von Überwachungskameras. Die bekannteste Methode ist Gesichtserkennung, es gibt aber auch andere Methoden, beispielsweise die Gangart, die wir einmal als Skelettkontrolle bezeichnet haben. Der Einsatz solcher Technologien kann das Ende von Anonymität in der Öffentlichkeit bedeuten und Massenüberwachung möglich machen. Durch Erkennungsfehler müssten Menschen, nach denen nicht einmal gesucht wird, mit einer irrtümlichen Verhaftung rechnen.
Die KI-Verordnung erlaubt den Einsatz der Technologie unter bestimmten Voraussetzungen sogar in Echtzeit. Das heißt, Überwachungskameras könnten die Gesichter gefilmter Menschen sofort mit einer Datenbank abgleichen und unmittelbar Alarm schlagen. Die SPD-Fraktion ist dagegen. Aus dem „bisher löchrigen Verbot von Echtzeit-Identifizierung“ soll „ein echtes Verbot“ werden, schreibt Parsa Marvi. „Nur so können wir unserem Anspruch aus dem Koalitionsvertrag entsprechen.“
Zur Erinnerung, im Koalitionsvertrag der Ampel steht: „Flächendeckende Videoüberwachung und den Einsatz von biometrischer Erfassung zu Überwachungszwecken lehnen wir ab. Das Recht auf Anonymität sowohl im öffentlichen Raum als auch im Internet ist zu gewährleisten.“
Der FDP-Abgeordnete Maximilian Funke-Kaiser verweist ebenso auf den Koalitionsvertrag. Er schreibt, es sei erforderlich, den „Einsatz von KI-gestützter Biometrie in Deutschland bundesgesetzlich so weit wie möglich“ zu unterbinden.
Auch für Tobias Bacherle (Grüne) gebe der Koalitionsvertrag „die Richtung klar vor“. Die Möglichkeit, strengere Schutzstandards zu schaffen, gelte es nun „konsequent zu nutzen“. Bacherle findet, Systeme mit Echtzeitüberwachung sollten gar nicht erst installiert werden, auch nicht mit Richtervorbehalt.
Warum sich solche Positionen nicht auf EU-Ebene durchgesetzt haben? „Bei diesen Fragen war der Widerstand aller europäischen Innenministerien und ihr Druck auf das Europäische Parlament gewaltig“, klagt Bacherle. In vielen Innenministerien werde schon seit Langem laut von Überwachung geträumt. „Und genau diese Haltung wurde versucht, durchzusetzen.“
Ja zu biometrischer Überwachung im Nachhinein
Üppige Rechte gewährt die KI-Verordnung bei der biometrischen Überwachung von Menschen im Nachhinein („retrograd“), etwa mit Hilfe archivierter Kamerabilder. Aufnahmen von Menschen dürfen demnach biometrisch gescannt werden, sobald Ermittler*innen sie einer Straftat verdächtigen. Um sie erstmals zu identifizieren, braucht es nicht einmal eine richterliche Genehmigung.
SPD und Grüne wollen das nicht verbieten, aber strenger machen. Der Grünen-Abgeordnete Bacherle schreibt uns, nachträgliche biometrische Identifikation soll „durch einen Richtervorbehalt und auf schwere Straftaten beschränkt sein“. Der SPD-Abgeordnete Marvi will einen „deutlich engeren Rahmen“ und eine klare Abgrenzung zum Einsatz in Echtzeit – um zu „verhindern, dass die Echtzeit-Identifizierung durch die Hintertür möglich wird“. Der Hintergrund: Aus der KI-Verordnung geht zunächst nicht klar hervor, wie viel Zeit eigentlich vergangen sein muss, bis eine biometrische Überwachung nicht mehr in Echtzeit erfolgt und somit erheblich weniger streng reguliert ist.
Die FDP im Bundestag will an dieser Stelle mehr als ihre Koalitionspartner. Um die Anonymität im öffentlichen Raum zu gewährleisten, fordert Funke-Kaiser eine Nachschärfung in der Strafprozessordnung, die auch die „rückwirkende Anwendung“ von KI-gestützter Biometrie einschließt.
Sein Parteikollege Maximilian Mordhorst schreibt uns: „Mir ist bewusst, dass es Situationen gibt, in denen nachträgliche biometrische Identifikation entscheidend sein kann. Zugleich dürfen wir aber die Sicherheit nicht über die Freiheit stellen.“ Gesichtserkennung im öffentlichen Raum sei ein schwerer Einschnitt in die Bürgerrechte. „Die Regelungen eröffnen den Raum für mehr Überwachung und weitere Eingriffe. Das ist inakzeptabel.“
SPD-Fraktion für Verbot von Emotionserkennung
Uneins sind sich die Fraktionen der Ampelparteien bei Emotionserkennung. Diese Technologie soll Aussagen darüber treffen können, wie sich Menschen fühlen, etwa anhand von Regungen im Gesicht. SPD-Abgeordneter Marvi warnt: „In der Wissenschaft ist höchst umstritten, ob sich von der Mimik Rückschlüsse auf Emotionen ziehen lassen.“ Außerdem drohe Diskriminierung, da die Systeme bei „Frauen und PoC besonders schlecht abschneiden“. Marvi schreibt: „Unser Votum also: ein klares, bereichsübergreifendes Verbot der Emotionserkennung.“
Bacherle von den Grünen sieht das weniger streng. Medizinische Ausnahmeregeln bei der Emotionserkennung halte er „für vertretbar, solange diese klar begründet werden können und sichergestellt ist, dass sich der Einsatz hierauf beschränkt“.
FDP-Abgeordneter Mordhorst sieht die Zulassung von Emotionserkennung in der KI-Verordnung „kritisch“, äußert sich auf Anfrage aber nicht zu einem Verbot.
Mehr Transparenz bei KI-basierter Migrationskontrolle gefordert
Auf den ersten Blick schafft die KI-Verordnung viel Transparenz, denn wer riskante KI-Systeme einsetzt, muss das in einer öffentlichen Datenbank registrieren. Es gibt jedoch Ausnahmen, ausgerechnet für den sensiblen Bereich „Strafverfolgung, Migration, Asyl und Grenzkontrollmanagement“. Konkretes Beispiel: Die EU hatte den Einsatz von Lügendetektoren an der Außengrenze getestet, um zu prüfen, ob Einreisende die Wahrheit sagen; dabei ist die Wirksamkeit der Technologie fraglich. Entsprechende Behörden sollen für ihre KI-Systeme laut Verordnung einen nicht-öffentlichen Bereich der Datenbank nutzen dürfen. Eine unabhängige öffentliche Kontrolle ist damit nicht möglich.
Grünen-Politiker Bacherle bezeichnet die Ausnahmen für Grenzkontrollen als „schmerzhaftes Zugeständnis an die Innenministerien“. SPD-Politiker Marvi gibt sich nicht geschlagen und beschreibt einen Kompromiss. Eine öffentliche Datenbank fordert er zwar nicht, aber immerhin den gezielten Zugang für Interessierte. Marvi schreibt: „Einzelne Betroffene oder solche, die sich über eine Interessengruppe vertreten lassen, könnte die Möglichkeit gegeben werden, bei strittigen Einsätzen oder Ergebnissen von KI-Anwendungen Informationen zu ihrem speziellen Fall anzufragen.“ Neben der EU-Lösung befürworte die SPD-Fraktion außerdem ein nationales Transparenzregister.
Die angefragten FDP-Abgeordneten haben sich nicht näher zu mehr Transparenz bei KI-basierter Migrationskontrolle geäußert.
Opposition: „Ampel hat sichtbar versagt“
Die Abgeordnete Anke Domscheit-Berg ist digitalpolitische Sprecherin der Linken im Bundestag. Sie lehnt Emotionserkennung ebenso ab wie biometrische Erkennungssysteme in öffentlich zugänglichen Räumen, sowohl in Echtzeit als auch im Nachhinein. „Polizei und Geheimdienste verfügen bereits über ausreichend viele Informationen zur Erfüllung ihrer Aufgaben“, schreibt sie auf Anfrage von netzpolitik.org. Domscheit-Berg sieht durch biometrische Identifikation dieser Art eine ganze Reihe von Grundrechten in Gefahr, unter anderem Privatsphäre, Datenschutz, Nichtdiskriminierung sowie Versammlungs- und Vereinigungsfreiheit.
Die Ampel, schreibt Domscheit-Berg, habe bei den EU-Verhandlungen „für jeden sichtbar versagt“ und ihr Koalitionsversprechen gebrochen, sich gegen flächendeckende biometrische Überwachung im öffentlichen Raum einzusetzen.
Die Digitalpolitikerin fordert – ähnlich wie SPD-Abgeordneter Mavi – ein nationales Transparenzregister für staatlich eingesetzte KI-Systeme. Bürger*innen hätten hier ein Recht auf Information, insbesondere wenn es um grundrechtssensible Bereiche geht. Ein Register könne dazu beitragen, Missbrauch und unangemessene Verwendung zu verhindern.
Wir haben auch zwei Unions-Abgeordnete aus dem Digitalausschuss um eine Einschätzung gebeten, bislang ohne Rückmeldung. Falls wir eine Antwort erhalten, werden wir sie ergänzen.
Allzu viel Zeit für etwaige Gesetzentwürfe gibt es nicht, immerhin ist die nächste Bundestagswahl bereits im September kommenden Jahres.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel
Author: Sebastian Meineck