06

Technologie ins Blickfeld nehmen: Stärkere Verantwortung von Plattformbetreibern

Ein Großteil der Verantwortung, die Plattformbetreiber tragen, bezieht sich sowohl auf die Moderation von Inhalten, als auch auf die technische Gestaltung ihres eigenen Angebots. So zeigte sich bereits in Ländern wie Indien, dass das mit wenigen Klicks mögliche massenhafte Weiterleiten von Nachrichten auf WhatsApp zu erheblichen Problemen führen kann. Algorithmen auf YouTube, die den Konsumentinnen und Konsumenten immer extremere Videos vorschlagen und sie so erst zu Inhalten von Extremistinnen und Extremisten und zu Verschwörungsmythen führen, unterliegen der technischen Kontrolle der Plattform. Plattformen müssen weitaus mehr unternehmen, um mittels Technikgestaltung der Verbreitung von Desinformationen Einhalt zu gebieten und Algorithmen, bzw. die Zusammensetzung von News-Feeds nachvollziehbar zu machen. Das bedeutet beispielsweise, das Teilen von als „irreführend“ oder „falsch“ identifizierten Inhalten nicht mehr möglich zu machen. Die Bewertung der Inhalte sollte durch Faktenchecker übernommen und transparent dargelegt werden. Plattformen müssen es ebenfalls möglich machen, dass Nutzerinnen und Nutzer die Zusammenstellung des eigenen News-Feeds stärker beeinflussen zu können. Bezahlte Inhalte müssen stärker als solche gekennzeichnet werden. Mittels einer qualitativen Algorithmentransparenz müssen Plattformen darlegen, dass ihre Empfehlungssysteme geringes Schadenspotential aufweisen.

Unabhängige Forschungseinrichtungen müssen Zugang zu den Wirkungsmechanismen der Algorithmen (qualitative Algorithmentransparenz) bekommen, um deren Effekte auf die Nutzerinnen und Nutzern zu untersuchen. Diese Forschungseinrichtungen müssen außerdem Zugang zu gelöschten Inhalten der Plattformen bekommen, um das Ausmaß und die Verbreitungswege von Desinformation besser beurteilen zu können. Da Plattformen auch aufgrund ihrer eigenen Richtlinien zeitnah löschen, ist das Bild über das Ausmaß von Kampagnen für Wissenschaftlerinnen und Wissenschaftler verzerrt. Auch sogenannte “Dark Patterns”, die Nutzerinnen und Nutzer zur übermäßigen Nutzung von Plattformen verleiten, müssen vermieden werden.

Plattformen müssen transparent darlegen, wie viele Content-Moderatorinnen und Moderatoren sie in einzelnen Ländern und Regionen beschäftigen. Content-Moderatoren brauchen nicht nur einen sprachlichen, sondern auch einen kulturellen Bezug zu den Regionen für die sie Inhalte moderieren, insbesondere dann, wenn sie mögliche Desinformationen erkennen sollen. Transparenz gilt auch, wenn Moderationsentscheidungen von Algorithmen automatisiert getroffen wurden. Niedrigschwellige Beschwerde- bzw. Schlichtungsstellen für Konfliktfälle bei Moderationsentscheidungen müssen für Nutzerinnen und Nutzer zur Verfügung stehen.

Plattformen müssen darlegen, wie viele Fake-Profile sie gelöscht haben und welche Erkenntnisse sie über Desinformationsnetzwerke und dahinterstehende Akteure haben. Ebenso müssen sie offenlegen, wie viele Menschen die Plattform beschäftigt, um solche Profile und Netzwerke zu detektieren.

Des Weiteren ist es wichtig, dass Plattformen weiterhin – nach klar vorgegebenen gesetzlichen Regeln auf europäischer Ebene – transparent und nachvollziehbar darlegen, welche Akteure für politische Werbung bezahlen. Außerdem muss bei politischer Werbung klar erkennbar sein, welche Zielgruppen mit einer Anzeige angesteuert werden. Dabei braucht es diese Erkennbarkeit sowohl direkt an der Anzeige selbst, als auch in Transparenzportalen, die eine Aufschlüsselung über generelle Ausgaben und Anzeigen eines politischen Akteurs darstellen.