Dieser Artikel stammt von Netzpolitik.org.
KI-Konvention des Europarats: Viel Abkommen um Nichts
Der Europarat hat sich auf einen internationalen Vertrag geeinigt, der die Menschenrechte schützen soll, wenn „Künstliche Intelligenz“ zum Einsatz kommt. Doch der jetzt geleakte Text ist windelweich und lässt riesige Lücken für Staaten und Unternehmen. Eine Analyse.
Während die EU in den letzten Jahren an strengeren Regeln für den Einsatz „Künstlicher Intelligenz“ feilte, kam zu diesem Thema auch ein anderes, sehr ähnlich klingendes Organ zusammen: Der Europarat wollte ebenfalls Rahmenbedingungen für die sich rasant entwickelnden Technologien schaffen, die unter dem Sammelbegriff KI gefasst werden – in Form eines internationalen Abkommens.
Der Europarat gehört nicht zur EU, sondern will als internationale Organisation Menschenrechte und Demokratie schützen. Abkommen des Europarates sind für die Staaten völkerrechtlich bindend. Das heißt: Staaten steht zwar frei, sie zu unterzeichnen – aber wenn sie es tun, müssen sie sich daran halten. Sie müssen dann eigene nationale Gesetze schaffen und umsetzen, was in den Verträgen festgehalten wird.
Ein internationales Abkommen zu KI hätte also durchaus eine Chance sein können. Denn nicht nur die 46 Mitgliedstaaten des Europarates können den Vertrag unterschreiben, er steht allen geneigten Staaten offen. Deswegen waren in die Verhandlungen auch Staaten wie die USA, Kanada, Großbritannien oder Israel mit eingebunden.
In der Summe hätten so im besten Fall für sehr viele Menschen weltweit eine bessere Rechtslage wachsen können, ein stärkerer Schutz vor potentiell gefährlichen Technologien wie Gesichtserkennung, Lügendetektoren, vor Prognose-Werkzeugen der Polizei oder vor Deepfakes. Das Ergebnis der zweijährigen Verhandlungen löst bei Fachleuten jedoch vor allem Kritik und Ernüchterung aus.
Ausnahmen für Unternehmen und nationale Sicherheit
Zwei große Lücken fallen besonders ins Auge: Die Ausnahmen für Unternehmen und die Ausnahmen für die nationale Sicherheit. Vor allem die USA haben sich in den Verhandlungen dafür eingesetzt, dass Unternehmen von den Regeln ausgenommen werden. Staaten sollte es selbst überlassen sein, ob und wie sie die Regeln auch auf den privaten Sektor anwenden, eine Opt-in-Lösung. Die aktuelle Fassung des Vertrages, die nun öffentlich wurde, zeigt: Sie konnten sich weitgehend durchsetzen.
Zwar sind Unternehmen nicht komplett ausgenommen. Aber die unterzeichnenden Staaten werden selbst entscheiden können, wie streng oder auch nachlässig sie mit ihren Unternehmen umgehen wollen. Im Text heißt es dazu: „Jede Vertragspartei befasst sich mit den Risiken und Auswirkungen, die sich aus Tätigkeiten innerhalb des Lebenszyklus von Systemen der Künstlichen Intelligenz durch private Akteure ergeben, in einer Weise, die mit Ziel und Zweck des Übereinkommens übereinstimmt“. Lediglich für Unternehmen, die im Auftrag von staatlichen Behörden handeln, gelten die Pflichten in jedem Fall.
Für alle Anwendungen, die in den Bereich „nationale Sicherheit“ fallen, also etwa Sicherheitsbehörden oder Verteidigung, ist die Lage hingegen klar: Sie sind ausgenommen von den Verpflichtungen im Vertrag. Für sie müssen laut Vereinbarung lediglich geeignete Maßnahmen zum Schutz des Völkerrechts und der demokratischen Normen ergriffen werden.
Datenschutzaufsicht: „sehr hoher Grad an Allgemeinheit“
Das wirft die Frage auf: Welchen Mehrwert bringt ein internationales Abkommen zu Künstlicher Intelligenz, wenn die darin vorgesehenen Pflichten nicht dort gelten, wo Menschenrechte besonders gefährdet sind, weil es um Staatsgewalt geht? Und wenn die Pflichten nicht zwingend für die Tech-Konzerne gelten, deren Technologien oft den größten Schaden für die Demokratie anrichten, allein schon aufgrund der Reichweite?
Diese Frage stellte schon Anfang März etwa die Europäische Datenschutzaufsicht EDPS. In einem regelrecht vernichtenden Statement an das zuständige Komitee im Europarat schrieb die Aufsicht, der „sehr hohe Grad an Allgemeinheit“ der Vorschriften zusammen mit einem „weitgehend deklarativen Charakter“ werde unweigerlich zu sehr unterschiedlichen Auslegungen des Übereinkommens führen. Anders gesagt: So lax wie ihr das formuliert habt, macht eh jeder, was er will.
Keine rote Linien
Beim Lesen der Einigung fällt es tatsächlich schwer, sich konkrete vorzustellen, was gemeint ist. Von „Transparenz“ ist da die Rede. Auch davon, dass Staaten Maßnahmen ergreifen sollten, um Diskriminierung zu verhindern, um die Demokratie zu schützen und auch die Menschenwürde. Teils sind die Artikel nur einen Satz lang. Dort steht dann etwa, jede Vertragspartei treffe „Maßnahmen zur Achtung der Menschenwürde und der individuellen Autonomie im Zusammenhang mit Tätigkeiten innerhalb des Lebenszyklus von Systemen der künstlichen Intelligenz.“ Das hier ein „sehr hoher Grad von Allgemeinheit“ vorliegt, ist wohl noch freundlich formuliert – es sind vorwiegend Worthülsen.
Auch mehr als 100 Organisationen aus der Zivilgesellschaft hatten die verhandelnden Staaten vor den letzten Verhandlungen noch aufgefordert, doch bitte keinen Freifahrtschein für Konzerne und Sicherheitsbehörden zu gewähren – weitgehend vergeblich. Ohnehin konnten die Organisationen zu diesem Zeitpunkt nur noch von der Seitenlinie reinrufen. Das Komitee für Künstliche Intelligenz, in dem über den Vertrag verhandelt wurde, hatte sie vergangenen Sommer kurzerhand vor die Tür gesetzt. Die weitere Verhandlungen sollten ohne kritische Beobachter:innen stattfinden.
Rat hält Text bisher zurück
Das Urteil von AlgorithmWatch fällt jetzt entsprechend klar aus: Selbst Verbote von KI-Systemen, die mit Menschenrechten unvereinbar scheinen, seien nicht mehr explizit vorgesehen, kritisiert die Menschenrechtsorganisation. Tatsächlich sieht der Entwurf in seiner jetzigen Form keinerlei rote Linien vor. Aus Sicht des Europarates gibt es demnach keine Technologie, die so riskant wäre, dass sie in einem internationalen Abkommen zu KI pauschal verboten werden sollte. Selbst für biometrische Identifikation oder Emotionserkennung gilt: Unterzeichnende Staaten können weiterhin selbst entscheiden, ob und wie sie deren Einsatz regulieren wollen.
Schon die KI-Verordnung der EU hat biometrische Identifikation im öffentlichen Raum und Emotionserkennung nicht generell verboten. Sie hat die Technologien jedoch als hoch-riskant eingestuft und mit entsprechenden Auflagen versehen.
Den aktuellen Entwurf hat nicht der Europarat öffentlich gemacht, sondern der Journalist Luca Bertuzzi. Er schreibt, er sehe nicht, warum ein internationales Abkommen zum Schutz der Menschenrechte geheim bleiben sollte. Der Europarat hat bislang nur bekannt gegeben, dass am 15. März eine Einigung zum Text erzielt wurde. Dieser wird jetzt erst an das Ministerkomitee des Europarats weitergeleitet, danach kann es losgehen mit dem Unterschreiben.
Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel
Author: Chris Köver