Drücken Sie „Enter“, um den Inhalte zu überspringen

Digital Services Act: „Wir wollen dafür sorgen, dass große Unternehmen die neuen Rechte einhalten“

Dieser Artikel stammt von Netzpolitik.org.

Digital Services Act„Wir wollen dafür sorgen, dass große Unternehmen die neuen Rechte einhalten“

Wir sprechen mit Svea Windwehr von der Gesellschaft für Freiheitsrechte über die neuen Rechte durch den Digital Services Act. Wie wehrt man sich gegen regelwidrige Maßnahmen der Plattformen? Wo könnte der DSA auch missbraucht werden? Und Svea ruft euch dazu auf, sich bei der GFF zu melden, wenn Plattformen eure Inhalte oder euer Konto sperren.


Constanze – in Nutzerrechtekeine Ergänzungen
Die EU-Kommission soll die ganz großen Tech-Unternehmen beaufsichtigen. CC-BY 4.0 netzpolitik.org

Der Digital Services Act (DSA) verfolgt im Kern das Ziel, Online-Plattformen und Anbieter digitaler Dienste wie etwa Suchmaschinen dazu zu bringen, mehr gegen rechtswidrige Inhalte vorzugehen, die Grundrechte der Nutzer besser zu schützen und den Schutz von Minderjährigen höher zu priorisieren. Seit der DSA in Kraft ist, hat die Zivilgesellschaft Rückenwind: Denn sie kann und soll bei der Durchsetzung der EU-Verordnung mitwirken und den Online-Plattformen auf die Finger schauen.

Beschwerden über Verstöße gegen den DSA können bei der nationalen Koordinierungsbehörde eingereicht werden. Die deutsche Koordinierungsbehörde ist die Bundesnetzagentur, die bei systematischen und regelmäßigen Verstößen gegen den DSA tätig werden soll.

Svea Windwehr (Foto: Bernhard Leitner)

Das Center for User Rights der Gesellschaft für Freiheitsrechte (GFF) will die neuen Rechte aus dem DSA aktiv einfordern und durchsetzen. Wir sprachen mit Svea Windwehr darüber, was die Zivilgesellschaft nun konkret tun kann und wer sich wo beschweren kann.

Svea Windwehr ist Leiterin des Centers for User Rights, einem Projekt der Gesellschaft für Freiheitsrechte. Zuvor hat Svea bei Google Deutschland gearbeitet und dort Themen rund um die Regulierung von Plattformen und Inhalten sowie Künstlicher Intelligenz betreut. Frühere Stationen beinhalten die Electronic Frontier Foundation, das Bundesministerium für Arbeit und Soziales sowie der Generaldirektion CONNECT der Europäischen Kommission. Sie studierte Politikwissenschaft und internationale Beziehungen in Maastricht und Berkeley und erwarb einen Masterabschluss am Internet Institute der University of Oxford. Svea Windwehr ist Co-Vorsitzende von D64.


Die neuen Rechte einfordern und durchsetzen

Elina Eickstädt: Wir sprechen heute darüber, was passiert, wenn ein EU-Gesetzgebungsprozess abgeschlossen ist, und wie ein Gesetz umgesetzt wird.

Constanze Kurz: Als Beispiel dient uns dafür der Digital Services Act (DSA). Und um die Durchsetzung von Nutzerrechten unter genau diesem DSA geht es dem Projekt Center for User Rights bei der Gesellschaft für Freiheitsrechte, das Svea Windwehr leitet. Was ist das Ziel des GFF-Projekts?

Svea Windwehr: Das Center for User Rights bündelt auf der einen Seite Projekte, welche die GFF im Bereich Plattform-Regulierung und Durchsetzung von Rechten schon länger am Laufen hatte. Ein neuer strategischer Fokus ist dabei die Durchsetzung von Nutzer:innen-Rechten unter dem Digital Services Act, dem großen neuen Rechtsrahmen für Online-Plattformen in der Europäischen Union, der vergangenes Jahr in Kraft getreten ist. Er hat die grundlegenden Haftungsregeln für Online-Plattformen upgedatet und vor allem viele neue Rechte für Nutzer:innen geschaffen. Und die möchten wir jetzt einfordern und durchsetzen.

Constanze Kurz: Die Durchsetzung von Rechten ist in vielen Bereichen eine Art Achillesferse des Gesetzgebers. Man hat vielleicht ein gut gemeintes Gesetz, egal ob auf der EU-Ebene oder in Deutschland. Aber nach ein paar Jahren stellt sich heraus: Die Durchsetzung der Rechte klappt nicht allzu doll. Man entdeckt Schwierigkeiten oder vielleicht auch Phänomene, die man vorher nicht antizipiert hat: Die Betroffenen, die bestimmte neue Pflichten haben, können sich vielleicht herauswinden oder Lücken ausnutzen. Was ist der Hauptfokus des Centers for User Rights beim Digital Services Act?

Svea Windwehr: Der Hauptfokus ist die Aufsichtsarbeit, die eigentlich die Aufsichtsbehörden erbringen müssten, also die Europäische Kommission und die nationalen Aufsichtsbehörden. Wir wollen die Fragen beantworten: Machen sie die Arbeit, die sie tun sollten? Ziehen sie große Tech-Unternehmen in die Verantwortung, die neuen Regeln, die es jetzt gibt, umzusetzen? Wir finden auch nicht alles am DSA im Detail positiv, aber wollen vor allem diese Aufsicht begleiten. Wir wollen dafür sorgen, dass die großen Unternehmen die neuen Rechte einhalten und Nutzer:innen in den Vordergrund stellen. Das ist natürlich eine Sisyphos-Aufgabe.

Ist der DSA gelungen?

Elina Eickstädt: Was passiert beim DSA, vielleicht auch beispielhaft für andere EU-Gesetze, wenn das Gesetz in Kraft tritt?

Svea Windwehr: EU-Verordnungen wie der DSA gelten in der Theorie sofort, aber tatsächlich nur in der Theorie. Denn es müssen Strukturen auf nationaler Ebene geschaffen werden, um sie überhaupt umsetzbar zu machen. Etwa die Frage: Wer ist denn die nationale Aufsichtsbehörde? Sie muss benannt werden. Dafür braucht es ein deutsches Gesetz. Das war in Deutschland das Digitale-Dienste-Gesetz, das mit ziemlich viel Verspätung in Kraft getreten ist. In diesen drei Monaten gab es keine Aufsichtsbehörde in Deutschland, niemand wusste, an wen man sich wenden konnte.

Constanze Kurz: Es geht beim DSA im Wesentlichen um Pflichten für Online-Plattformen und um neue Transparenzregeln. Es geht auch um Moderationsentscheidungen dieser Plattformen und die Widersprüche, die man dagegen einlegen kann. Für wie sinnvoll hältst du die Regelungen der Verordnung? Ist das ein gelungenes Gesetz? Und wo sind Schwächen, die du schon siehst, bevor ihr überhaupt die Arbeit richtig anfangen könnt?

Svea Windwehr: In den vergangenen Jahren gab es in den EU-Mitgliedstaaten relativ viele neue Gesetze, die versucht haben, damit umzugehen, dass Online-Plattform so wahnsinnig viel Macht entfaltet haben und auch so viel Einfluss auf Grundrechte wie die Meinungsfreiheit ausüben, zum Beispiel das deutsche NetzDG. Ein ähnliches Gesetz gab es in Frankreich, und es gab solche Gesetze in Österreich. In Dänemark wurde ebenfalls darüber nachgedacht. All diese Gesetze waren nicht ideal, es gab sehr viel Kritik daran aus verschiedenen Perspektiven. Aber es war klar: Hier muss was passieren.

Es ist besser, wenn das auf europäischer Ebene passiert und harmonisiert wird, als wenn die EU-Mitgliedstaaten ihre eigenen Süppchen kochen. Das war die Hauptmotivation für den DSA. Das Gesetz besteht aus vier Teilen.

Der erste Teil sind grundlegende Haftungsregeln. Zum Beispiel: Wann ist eine Plattform verantwortlich für Inhalte, die gepostet werden und die vielleicht illegal sind? Der zweite Teil sind grundlegende Sorgfaltspflichten, die alle erfüllen müssen. Das heißt zum Beispiel, dass Online-Plattformen oder Hosting-Anbieter Notice-and-Action-Verfahren anbieten müssen – also Meldeverfahren –, aber auch grundlegenden Transparenzvorschriften nachkommen müssen.

Der dritte Teil beschreibt besondere Pflichten für die allergrößten Plattformen, die am meisten Macht haben. Das sind sehr große Plattformen, die erheblichen Einfluss auf unsere Gesellschaft haben, auf unser Zusammenleben, auf demokratische Prozesse, aber eben auch auf Grundrechte oder Wahlen und so weiter. Der vierte Teil ist dann die Durchsetzung, die Aufsicht sozusagen.

Aus meiner Perspektive ist der DSA im Großen und Ganzen gut gelungen. Ich habe Kritik, was einige Artikel angeht: Das betrifft einige der Ermächtigungen für die Europäische Kommission oder die Aufsicht, insbesondere in Krisensituationen. Es gibt einen Krisenmechanismus, wo die Europäische Kommission recht stark eingreifen kann. Es ist klar, dass diese Ermächtigungen unter dem Eindruck des Krieges in der Ukraine und den Erfahrungen der Corona-Pandemie geschaffen wurden. Aber ich denke, da gibt es viel Missbrauchspotential.

Eine andere Sache, die sehr problematisch ist, kennen wir schon aus dem deutschen NetzDG: die Verpflichtung für Online-Plattformen, Nutzer:innen-Daten und -Inhalte proaktiv an Strafverfolgungsbehörden auszuleiten, wenn diese der Meinung sind, dass die Inhalte bestimmte Straftatbestände erfüllen könnten, also illegal sind. Aber es ist überhaupt nicht definiert, um was für Straftaten es geht.

Das sind Elemente, wo ich sagen würde, dass der DSA missbraucht werden kann und zum Teil eine Überwachungsgesetzgebung ist. Aber der Großteil des DSA, also vor allem die Nutzer:innen-Rechte, halte ich für sehr gelungen. Jetzt müssen wir natürlich ausprobieren, ob es in der Praxis funktioniert.

Elina Eickstädt: Du hast schon mehrfach die EU-Kommission erwähnt. Welche Rolle spielt die EU-Kommission in der Umsetzung von einem solchen Gesetz, speziell vom DSA?

Svea Windwehr: Die EU-Kommission ist die Aufsichtsbehörde für die allergrößten Plattformen, die am meisten Macht über unsere Leben haben. Das war aber so gar nicht vorgesehen. Ursprünglich sollten die EU-Mitgliedsstaaten, in denen die Plattformen gemeldet sind, die Aufsicht übernehmen. Das sollte ähnlich wie bei der Datenschutzgrundverordnung (DSGVO) geregelt werden. Bekanntlich sind die meisten der Plattformen in Irland gemeldet. Es gab dann den Gedanken: Moment mal, das war vielleicht nicht die beste Idee. Denn Irland ist im Kontext der DSGVO nicht so wahnsinnig viel tätig geworden, im Gegenteil.

Constanze Kurz: Das war die Untertreibung des Jahrzehnts. Die Iren gelten als Nullnummer bei ihren DSGVO-Aufsichtsbehörden.

Elina Eickstädt: Man sieht das immer wieder an den Klagen von noyb und Max Schrems, nämlich wie die Aufsicht der Iren einfach überhaupt nicht funktioniert. Anscheinend wurde daraus gelernt bei der Umsetzungsidee des DSA.

Svea Windwehr: Es war klar: Was bei der DSGVO passiert ist, sollte sich auf keinen Fall wiederholen. Es ist aber auch klar, dass es wahrscheinlich nicht die allerbeste Idee ist, wenn jetzt alle 27 EU-Staaten damit anfangen, die größten Plattformen, die in all diesen Märkten unterwegs sind, selbst zu beaufsichtigen. Deswegen war die Idee: Wir geben diese Aufgabe der Kommission. Das ist auf jeden Fall eine spannende Rolle, mit der die EU-Kommission – so glaube ich – ebenfalls nicht gerechnet hat.

Welche Rolle die EU-Kommission hat

Elina Eickstädt: Was ist die EU-Kommission als Institution eigentlich? Und warum ist das vielleicht eine gute Idee, nicht alle Länder die Aufsicht allein machen zu lassen, sondern durch die Kommission?

Svea Windwehr: Die EU-Kommission beschreibt sich selbst als die Hüterin der Verträge, als eine angeblich objektive Exekutive, die Gesetzesvorschläge macht und sie dann auch beaufsichtigt oder zum Teil umsetzt. Ich würde sagen, die Kommission ist eine zutiefst politische Institution, weit entfernt davon, objektiv zu sein. Sie ist sehr stark beeinflusst von der Agenda der größten EU-Mitgliedsstaaten, insbesondere Frankreich und Deutschland.

Die Hoffnung ist, dass die EU-Kommission in der Lage sein wird, die nötige Expertise für den DSA aufzubauen, diese zu bündeln und durchschlagskräftiger zu sein als nationale Aufsichtsbehörden.

Constanze Kurz: Es gibt eine Trennung zwischen Online-Plattformen auf der einen Seite und sehr großen Online-Plattformen auf der anderen. Welche sehr großen Plattformen sind das? Wie sind sie definiert? Und wie unterscheiden sich die Pflichten?

Svea Windwehr: Sehr große Online-Plattformen oder sehr große Suchmaschinen, die auch dazugehören, sind als Plattformen definiert, die mehr als 45 Millionen Nutzer:innen in der Europäischen Union haben. Das ist schon eine hohe Schwelle, die überschreitet man nicht zufällig. Das sind inzwischen knapp über zwanzig.

Dazu zählen zum Beispiel Google mit seinen verschiedenen Diensten oder die Meta-Plattform, also Instagram und Facebook, aber auch Twitter oder TikTok. Es sind aber auch Online-Marktplätze darunter wie etwa Amazon, Alibaba, Shein oder Temu. Recht neu sind auch die großen Porno-Plattformen, so ist etwa xHamster dazugekommen. Und auch Suchmaschinen wie die Google-Suche oder Bing sind dabei. LinkedIn fällt auch darunter, das zu Microsoft gehört.

Umgang mit systemischen Risiken

Constanze Kurz: Was ist mit dem Unternehmen OpenAI, bekannt für ChatGPT, die sich ja mit mehr als 90 Millionen Usern brüsten. Sind die dabei?

Svea Windwehr: Es ist nicht ganz klar, was das eigentlich für eine Form von Dienst ist: Hosting-Anbieter oder Online-Plattform oder eine Mischform.

Elina Eickstädt: Was muss die EU-Kommission jetzt leisten? Macht sie auch was oder redet sie nur viel darüber?

Svea Windwehr: Die EU-Kommission hat jetzt die Aufgabe, diese ganz großen Unternehmen zu beaufsichtigen. Dafür stehen ihr eine Reihe von Möglichkeiten und Werkzeugen zur Verfügung. Zum Beispiel müssen die Unternehmen bestimmte Berichte abliefern, wie sie zum Beispiel systemische Risiken bekämpfen. Das heißt, die Kommission bekommt eine bessere Informationslage.

Sie kann aber auch Informationen anfragen. Es geht sogar so weit, dass sie Durchsuchungen durchführen oder spezifische Informationen sicherstellen könnte.

Die EU-Kommission ist auch sehr schnell aktiv geworden. Man könnte vielleicht auch sagen: Sie ist aktivistisch unterwegs gewesen in den ersten Monaten. Nicht alles davon wurde sehr positiv gesehen.

Zum Beispiel gab es im Kontext des 7. Oktober Briefe des zuständigen EU-Kommissars Thierry Breton, die er über Twitter verteilt hat. Darin forderte er die großen Plattformen auf, den DSA durchzusetzen. Dabei hat er auf eine relativ problematische Art und Weise vermischt, um was es eigentlich geht. Geht es um illegale Inhalte oder geht es um Desinformation? Das ist ein recht frühes Beispiel, wo man das Gefühl hatte, dass hier auch politisch Einfluss genommen wird.

Abgesehen davon hat die EU-Kommission vor allem drei große Prioritäten festgelegt. Es geht einmal um das Thema illegale Inhalte: Wie gehen die Plattformen mit illegalen Inhalten um, was sind die Meldewege, wie gut funktioniert die Transparenz? Der zweite Bereich ist Kinder- und Jugendschutz, der für die Kommission sehr wichtig ist. Der dritte Bereich ist die Integrität von Wahlen und Desinformation.

Elina Eickstädt: Stellt die EU-Kommission für diese Arbeit ein neues Team oder eine neue Abteilung zusammen, die dann auch beständig arbeiten – im Gegensatz zu den Kommissarinnen und Kommissaren, die ja jetzt nach den Wahlen wechseln werden?

Svea Windwehr: Ja, es wurde eine Abteilung umstrukturiert und umgebaut, und zwar die Abteilung, in der das Team sitzt, das den DSA geschrieben und verhandelt hat. Da ist sehr viel Expertise im Bereich Online-Plattformen. Sie haben schon recht viel Leute eingestellt, zwischen 70 und 100 Menschen.

Es sind auch gerade noch Stellen offen. Die EU-Kommission hat recht lange gebraucht, um diese Stellen zu füllen und das Team aufzubauen. Die Kommission hat mit dem Team schon einige Untersuchungen losgetreten, ich glaube, über zehn Untersuchungen und noch einige Nachfragen, sogenannte Requests for Information. Als wir als GFF im Februar eine Beschwerde gegenüber LinkedIn eingereicht haben, hat die Europäische Kommission als ersten Schritt nach mehr Informationen bei LinkedIn gefragt.

„Die EU-Kommission hätte nichts machen müssen“

Elina Eickstädt: Was können wir als Zivilgesellschaft machen? Wie läuft eine Beschwerde an die Kommission? Kann ich das als Einzelperson auch tun? Kann sich einfach jeder beschweren oder muss man sich im eigenen Land an die Beschwerdestellen richten?

Svea Windwehr: Das ist eine der Lücken im DSA. Es gibt kein Beschwerderecht gegenüber der Europäischen Kommission. Theoretisch müssten wir uns alle an unsere nationale Aufsichtsbehörde wenden, der Digital-Services-Koordinator, also die deutsche Koordinierungsstelle. Da kann man quasi Beschwerden einreichen, wozu man möchte. Und wenn es sich dabei um sehr große Online-Plattformen handelt, dann hat diese nationale Aufsichtsbehörde die Verpflichtung, das an die EU-Kommission weiterzugeben.

Da es in Deutschland bis vor kurzem noch keine Aufsichtsbehörde gab, haben wir als GFF zum Beispiel unsere Beschwerde direkt bei der Kommission eingereicht. Auch wenn es keinen offiziellen Weg dafür gab, hat es in diesem Fall gut funktioniert, aber geht natürlich mit dem Problem einher, dass wir keinerlei prozessuale Rechte hatten. Die EU-Kommission hätte nichts machen müssen. Sie hätte sich auch einfach nie wieder bei uns melden können. Wir hätten keine rechtlichen Wege gehabt, dagegen vorzugehen.

Interviews

Wir kommen gern ins Gespräch. Unterstütze unsere Arbeit!

Constanze Kurz: Ist es denn jetzt anders? Es gibt ja jetzt diesen Koordinator, das ist in Deutschland gesetzlich geregelt die Bundesnetzagentur. Müsst ihr euch mit ihnen nun ins Benehmen setzen oder wendet ihr euch direkt an die Bundesnetzagentur? Wie wird es jetzt laufen?

Svea Windwehr: Wir haben vor zwei Wochen eine weitere Beschwerde eingereicht. Wir wollten ausprobieren, wie jetzt der Weg ist. Denn inzwischen gibt es eine Webseite, über die man Beschwerden einreichen kann.

Constanze Kurz: Man kann aber nur fünf Bilddateien hochladen und man hat eine sehr begrenzte Zeichenzahl.

Svea Windwehr: Genau. Da sieht man schon ein wenig, von welchen Beschwerden sie ausgehen. Ich glaube, sie rechnen vor allem damit, von einzelnen Personen zu hören, was ihnen auf einer Plattform widerfahren ist, wo ihre Rechte nicht eingehalten wurden. Das, was wir als GFF dort einreichen wollten, nämlich Beschwerden gegen fünf verschiedene Unternehmen, das war so nicht vorgesehen. In dem Fall haben wir die Beschwerde wieder per E-Mail eingereicht, aber auch parallel an die Europäische Kommission, weil es um sehr große Online-Plattformen ging. Das wird letztlich sowieso bei der Kommission landen.

Die Bundesnetzagentur hat vor allem die Aufgabe, zu koordinieren und dann Beschwerden oder auch Untersuchungen an die Behörde weiterzugeben, die am ehesten dafür zuständig und dafür kompetent ist.

Hier kannst Du Dich beschweren

Constanze Kurz: Die Bundesnetzagentur betont auf der Webseite, dass es nicht um individuelle Beschwerden geht, dass sich also die Nutzer nicht wegen eines gesperrten Accounts beschweren sollen, sondern dass die Behörde über ihr Beschwerdeformular auf systematische oder regelmäßige Verstöße hingewiesen werden will.

Svea Windwehr: Deswegen ist unsere Arbeit in dem Bereich so wichtig. Denn das ist genau das Problem: Der DSA sagt sehr deutlich, dass einzelne Rechtsverstöße nicht das Problem sind. Aber systematische Rechtsverstöße können geahndet werden. Das heißt: Wenn etwa Facebook einmal was Falsches entscheidet, ist es schon okay. Das ist natürlich für einzelne Nutzer total unbefriedigend, weil die tatsächlich nicht unbedingt jemand haben, an den sie sich wenden können. Oder es ist mit sehr viel Aufwand verbunden.

Es gibt natürlich Vereine wie die GFF und auch Beratungsstellen für Betroffene von Hass im Netz, die helfen können. Aber es ist nicht offensichtlich, an wen man sich wenden kann. Es gibt noch die Verbraucherschutzzentralen, die auch hilfreich sind, aber die muss man auch erstmal kennen.

Constanze Kurz: Du hast vorhin erwähnt, dass der DSA auch die Pflichten in Bezug auf Meldungen für die großen Plattformen verbessern soll. Sie müssen jetzt bestimmte Beschwerdewege haben und auch reagieren – oder zum Beispiel auch nicht immer automatisiert reagieren. Im Prinzip ist der DSA vor allen Dingen dafür da, dass es diese Wege überhaupt gibt und zwar überall. Aufzuzeigen, wo diese Beschwerdestellen bei den großen Plattformen sind, wäre doch eigentlich eine Forderung, die man an die Bundesnetzagentur stellen könnte.

Elina Eickstädt: Ich glaube, das ist ein Klassiker, dass wir jetzt als Zivilgesellschaft wieder schauen müssen, dass alle Menschen ihre Rechte kennen, die sie jetzt auf einmal innehaben. Und wir müssen außerdem dafür sorgen, dass es eine Durchsetzung dieser Rechte gibt. Oder wie siehst du das?

Svea Windwehr: Auf der einen Seite ist das eine Rolle, welche die Zivilgesellschaft schon immer hatte: Watchdog sein. Aber ich würde auch sagen, es gibt auf der anderen Seite ein gewisses Spannungsfeld: Man kann nicht mit der Kommission zusammenarbeiten und den DSA durchsetzen und gleichzeitig die Kommission beaufsichtigen und Watchdog sein.

Hinzu kommt die ungeklärte Finanzierungslage für ganz viele Organisationen in Deutschland, genauso auch in anderen Ländern oder auf europäischer Ebene. Es gibt einfach viel zu wenig Geld für diese Arbeit. Aktuell würde ich schon sagen, dass es von Aufsichtsbehörden eine Erwartungshaltung gibt, insbesondere von der EU-Kommission an die Zivilgesellschaft. Nach dem Motto: Ihr wolltet diese Rolle, jetzt ist der DSA da – könnt ihr nun Beweise liefern, wo es schlecht läuft?

Das ist natürlich eine tolle und eine wichtige Aufgabe. Wir wollen uns natürlich auch beteiligen und hilfreich sein. Ich denke, aktuell ist es gut angelaufen. Aber es ist natürlich klar, dass früher oder später Konflikte auftauchen. Dann wird es spannend.

Mitglieder des Beirats bestätigt

Constanze Kurz: Bei der Bundesnetzagentur, also dem deutschen Koordinator, gibt es auch eine zivilgesellschaftliche Beteiligung. Sie ist in einem Beirat festgelegt, der sich zusammensetzt aus zur Hälfte Zivilgesellschaft, einem Viertel Wissenschaft und einem Viertel Wirtschaft. Ist schon bekannt, wer in diesem Beirat sein wird?

Svea Windwehr: Der Beirat wurde gerade benannt, ich gehöre ihm als Teil der Zivilgesellschaft an.

Constanze Kurz: Aus Sicht der GFF: Welchen Unternehmen wollt ihr euch widmen? Was sind die Themen, die euch unter den Nägeln brennen, wo wollt ihr aktiv werden?

Svea Windwehr: Das sind drei Bereiche. Der erste ist die Inhaltemoderation, also genauer die Durchsetzung und Wahrung von Grundrechten bei der Inhaltemoderation. Da sind wir darauf angewiesen, dass Menschen zu uns kommen und erzählen, was ihnen passiert ist.

Hier ist der Aufruf: Wurden eure Inhalte gesperrt oder euer Konto blockiert? Dann meldet euch gern, wenn ihr das Gefühl habt, dass das nicht rechtmäßig passiert ist. Wenn vielleicht auch bestimmte politische Inhalte zensiert wurden, dann sind wir erstmal neugierig und schauen uns das gern an.

Der zweite Bereich ist der Zugang zu Forschungsdaten. Das ist eine große Innovation, dass es ein relativ weitgehendes neues Recht für Forschende gibt, Zugang zu Plattformdaten zu bekommen. Das wollen wir durchsetzen mit Forschenden, also dafür kämpfen, dass sie die Daten auch bekommen.

Der dritte Bereich ist das, was ich Plattform-Design nenne, also die Aspekte des DSA, die nicht unbedingt auf einzelne Nutzerrechte abzielen, sondern das Design und die Gestaltung von Online-Plattformen angehen. Sie haben sehr großen Einfluss darauf, wie Nutzer sich dort bewegen können und was sie vorfinden.

In allen drei Kategorien muss aus meiner Sicht sehr viel überprüft werden. Gerade auch die Meldewege, da gibt es schon erste Beschwerden. Es ist klar, dass Meldewege auf allen Plattformen nicht besonders gut ausgestattet sind, nicht besonders gut funktionieren und nicht einfach zu nutzen sind.

Constanze Kurz: Du hast vermieden, irgendeine bestimmte große Online-Plattform zu benennen.

Elina Eickstädt: Was ist eigentlich mit TikTok? Setzen sie den DSA um, was ist dein Eindruck?

Svea Windwehr: TikTok fällt als eine sehr große Plattform unter den DSA. TikTok war unter den fünf Unternehmen, gegen die wir vor ein paar Wochen wegen ihrer mangelnden Umsetzung von Wegen, sich als Nutzer:in vertreten zu lassen, eine Beschwerde eingereicht haben. Aus meiner Erfahrung bemüht sich TikTok um Compliance. Ich glaube, TikToks generelle Strategie besteht darin, Gesetze umzusetzen, und es ist eventuell weniger fokussiert darauf, Grundrechte abzuwägen.

Wir schauen weniger auf konkrete Unternehmen als auf konkrete Themen. Bis jetzt haben wir gegen fast alle großen Plattformen, auf denen nutzergenerierte Inhalte geteilt werden, Beschwerden eingereicht.

„Desinformation ist meistens nicht rechtswidrig“

Elina Eickstädt: Der DSA war ein geprägt von den EU-Wahlen: Wir müssen irgendwas gegen Desinformation tun. Hast du das Gefühl, dass es jetzt in der Umsetzung des DSA zu gut überlegten Regelungen kommt?

Svea Windwehr: Der DSA ist schon ein Versuch, auf aktuelle Herausforderungen einzugehen – manchmal besser, manchmal schlechter. Ich glaube, dieser Krisenmechanismus, den ich vorhin erwähnt habe, ist ein Beispiel von eher nicht so gut gelaufen. Die Artikel zu systemischen Risiken, wo zum Beispiel auch Desinformation oder Schutz von Wahlen drin stehen, die ergeben schon mehr Sinn.

Für mich geht es um ein grundlegendes Missverständnis: Desinformation ist ja in den allermeisten Fällen nicht rechtswidrig. Die Inhalte, die verbreitet werden, sind meistens nicht rechtswidrig. Es ist falsch und es sind oft Dinge, die aus dem Kontext gerissen werden und in falschen Kontext gestellt werden. Aber es ist selten illegal. Der DSA reguliert aber in allererster Linie illegale Inhalte. Das heißt, es ist relativ begrenzt, was man unter dem DSA tun kann, um gegen Desinformation vorzugehen. Das wird manchmal ein bisschen übertrieben dargestellt. Aber es ist ein sehr komplexes Problem mit vielen verschiedenen Akteuren. Und einfach nur zu sagen, Plattformen sollen jetzt mehr Desinformation löschen, wird dem überhaupt nicht gerecht.

Das heißt, wir müssen vorsichtig damit sein, zu sagen, der DSA funktioniert nicht, er muss nachgeschärft werden – gerade in den ersten Monaten, vielleicht auch im ersten Jahr. Wir müssen erstmal Erfahrungen damit sammeln und herausfinden, was gut funktioniert, was schlecht funktioniert und uns gemeinsam der Herausforderung stellen, dass wir noch nicht alle Antworten haben.

Elina Eickstädt: Was kann der DSA eigentlich beim Kinder- und Jugendschutz tun? Hast du das Gefühl, dass es hier wieder so eine Erwartungshaltung an den DSA gibt, die gar nicht erfüllt werden kann?

Svea Windwehr: Der DSA sagt zum Kinder- und Jugendschutz, dass Plattformen sich Maßnahmen ausdenken müssen, um Kinder und Jugendliche zu schützen, und das quasi auf systemischer Ebene einbauen, überprüfen und bewerten müssen. Da bin ich sehr gespannt drauf. Die entsprechenden Risikoberichte werden im Laufe des Jahres veröffentlicht.

Wovor ich ein bisschen Sorge habe, ist die Diskussion, ob Altersverifizierung nicht doch ein notwendiges Werkzeug ist, um Kinder und Jugendliche im Netz zu schützen. Da habe ich große Bedenken und die Sorge, dass in irgendwelchen Arbeitsgruppen – fernab der Öffentlichkeit und des demokratischen Gesetzgebungsprozesses – die Altersverifizierungen über die Hintertür noch Schule machen könnte. Da sehe ich auf jeden Fall eine große Gefahr.

Constanze Kurz: Ich muss auf etwas zurückkommen, dass du zweimal explizit als Schwäche des DSA erwähnt hast: den Krisenmechanismus. Was ist dieser Krisenmechanismus, wo siehst du die große Gefahr?

Svea Windwehr: Kurz zusammengefasst sagt der Krisenmechanismus, dass die EU-Kommission nach Aufforderung der nationalen Aufsichtsbehörden in Fällen von Krisen, die weit definiert sind, etwa nationale Sicherheit oder Public Health, Krisenprotokolle unter Beteiligung betroffener Online-Plattformen ausarbeitet. Die Kommission kann so konkrete Maßnahmen zur Bekämpfung der Krise vorschlagen und ihre Anwendung überwachen.

Der Artikel dazu ist recht vage und lässt viele Spielräume. Am Beispiel der Corona-Pandemie haben wir gesehen, wie dynamisch solche Situationen sein können, und wie schnell sich auch verändert, was zum Beispiel als Desinformation wahrgenommen wird und was nicht. Da macht mir dieser Artikel und die Ermächtigungen, die der im Falle einer Krise erlaubt, Sorgen.

Constanze Kurz: Ich erinnere daran, dass mit Beginn des kriegerischen Ukrainekonflikts auch ganz drastische Zensurmaßnahmen in Europa durchgesetzt wurden, die bis heute bestehen in Bezug auf russische Sender. Du hast jetzt Desinformation erwähnt, aber eigentlich geht es ja um rechtswidrige Inhalte, nicht wahr?

Svea Windwehr: Ja, ich glaube, es wird auch oft verkürzt. Staatliche Akteure hätten einen direkten Weg, um Druck auch Unternehmen mit sehr großer Reichweite auszuüben, um bestimmte Maßnahmen umzusetzen. Da sehe ich Missbrauchspotential. Gleichzeitig ist auch klar, dass die Gesellschaft sehr wachsam ist.

Wir müssen abwarten, wie das in der Praxis laufen wird, aktuell ist es schwer zu bewerten. Aber ich glaube, es ist allen klar, dass dieser Mechanismus nicht ideal ist, dass es viele Fragezeichen gibt und dass man mit sehr viel Sorgfalt agieren muss.

Uns gegen Handlungen der Plattform wehren

Elina Eickstädt: Was sollte man grundsätzlich über den DSA wissen?

Svea Windwehr: Man sollte wissen, dass wir jetzt zum ersten Mal Rechte haben, um uns gegen Handlungen der Plattformen zu wehren. Die sollte man nutzen. Das geht am allerbesten, wenn man sich ein bisschen Hilfe sucht, zum Beispiel auf die GFF zukommt und uns anspricht.

Was auch wichtig ist: Es gibt neue Transparenz und neuen Zugang zu Daten. Jetzt müssen wir den Zugang auch nutzbar machen. Und deswegen hier ein Aufruf an alle, die forschen oder in irgendeiner Uni Lust dazu haben: Welche Daten wollt ihr eigentlich? Wie könnte man sie herkriegen? Da aktiv zu werden, das ist mein Appell.

Elina Eickstädt: Vielen Dank, Svea, dass du dir die Zeit für das Gespräch genommen hast!


Das etwa einstündige Gespräch mit Svea ist auch als Podcast verfügbar. Der Podcast „Dicke Bretter“ versucht zu erklären, wie Gesetzgebungen und Standards zustandekommen, wie die Willensbildung und die Durchsetzung in solchen Zusammenhängen verlaufen und welche Institutionen daran mitwirken.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Constanze

Views: 2
Handing emergencies by domestic helper | 健樂護理有限公司 kl home care ltd.