Demokratie im digitalen Raum
Was tun gegen Desinformation?
Digitale Räume brauchen Regeln, aber keine Überregulierung.
Skórzewia; HSS; AdobeStock
Die jüngsten Wahlen in den USA und Europa haben deutlich gemacht, wie sehr demokratische Prozesse inzwischen von digitalen Informationsräumen geprägt sind. Manipulative Inhalte, insbesondere aus dem Ausland, sowie KI-generierte Desinformation gewinnen zunehmend an Bedeutung – mit ungewissen Folgen für den gesellschaftlichen Zusammenhalt und das Vertrauen in die Demokratie. Gleichzeitig stehen Maßnahmen zur Regulierung von Plattformen und Inhalten wegen möglicher Einschränkungen der Meinungsfreiheit in der Kritik.
Vor diesem Hintergrund hat die Hanns-Seidel-Stiftung im Rahmen der Reihe „Talks on the Future of the European Union“ bei einer Konferenz in London mit internationalen Experten diskutiert. Die Gesprächsbeiträge lassen sich in vier Thesen zusammenfassen.
1. Digitale Vernetzung transformiert das demokratische Miteinander.
Der Dialog zwischen Staat und Volk, wie wir ihn aus der zweiten Hälfte des 20. Jahrhunderts kennen, ist mittlerweile einem Multilog gewichen. Digitale Kommunikationswege ermöglichen es einer Vielzahl von staatlichen und gesellschaftlichen Akteuren, gleichzeitig und unvermittelt in Austausch zu treten. Diese Vielstimmigkeit unterminiert traditionelle Formen politischer Willensbildung, überfordert die existierenden Institutionen und führt infolge mangelnder Anpassungsfähigkeit zu einem weitgehenden Vertrauensverlust. Ein demokratisches Miteinander, das mit den gesellschaftlichen Gegebenheiten nicht mehr Schritt hält, wird sich auf Dauer nicht bewahren lassen. Es gilt daher, den Wandel proaktiv zu gestalten. Ansonsten wird sich die Digitalisierung langfristig schädlich auf die Demokratie auswirken – das zeigen unter anderem die Interferenzen bei den US-Wahlen 2016. Dass ausländische Einmischungs- und Manipulationsversuche überhaupt verfangen, ist dabei bloße Folge innergesellschaftlicher Krisen und nicht deren Ursache. Ergo liegt der Schlüssel zu einer nachhaltigen Abwehr ebenfalls im Inneren, etwa in der Stärkung der Medienkompetenz.
2. Staatliche Leitlinien für digitale Plattformen müssen Über- und Unterregulierung gleichermaßen verhindern.
Tech-Giganten wie Meta, Alphabet und X kontrollieren zentrale digitale Kommunikationskanäle. Damit lässt sich eine starke Konzentration (infra-)struktureller Macht feststellen. Für die freiheitliche Gesellschaft ergeben sich daraus zwei einander entgegengesetzte Gefahren.
Erstens haben private Unternehmen damit die Möglichkeit, die freie Rede wirkungsvoll einzuschränken. Dies geschieht einerseits, wenn sie sich mit autoritären Regierungen gemein machen, und andererseits, wenn sie – auch unter demokratischen Vorzeichen – eine Überregulierung der Inhalte betreiben, um Strafzahlungen zu vermeiden.
Zweitens können soziale Medien, wenn zu wenig Moderation oder Regulierung stattfindet, zum Einfallstor für Desinformation und Manipulation werden. Zwar müssen hier die Tech-Unternehmen in die Pflicht genommen werden, allerdings darf sich der Staat dabei nicht aus der Verantwortung stehlen. Um Über- und Unterregulierung gleichermaßen zu vermeiden, muss er klar festlegen, wo die Linie zwischen legitimer Meinungsäußerung und Desinformation verläuft. Das polnische Strafrecht hat hier bereits zu einer pragmatischen Lösung gefunden: Ahnden lassen sich gezielte Handlungen, die auf Anweisung eines fremden Staates mit dem Ziel der Störung durchgeführt werden. Jenseits solcher internetspezifischen Delikte muss der Staat stärker im Kampf gegen schädliche Akteure aktiv werden, welche die sozialen Medien für Straftaten wie Kindesmissbrauch oder Betrug nutzen. Überlässt er das allein den Tech-Unternehmen, riskiert er ein Vakuum an Rechtsdurchsetzung.
3. Damit KI-Werkzeuge gegen Desinformation wirksam arbeiten, sind präzise Rahmenbedingungen erforderlich.
Werden KI-Werkzeuge zur Bekämpfung von Desinformation eingesetzt, dann muss man sich über deren Grenzen bewusst sein. Grundsätzlich gilt: Künstliche Intelligenz kann die Frage nach Wahrheit, Irrtum und Lüge nicht beantworten. Sie kann nur Daten liefern, deren Zusammensetzung von den zuvor definierten Kriterien abhängen. Es bedarf daher klarer Rahmenbedingungen und -konzepte, deren Reichweite jedoch immer begrenzt ist. Jede Gesellschaft legt andere Maßstäbe zugrunde – KI-Tools müssen dementsprechend kultursensibel agieren. Es gibt Inhalte, die in bestimmten Kontexten als witzig empfunden werden oder im Diskurs absolut zulässig sind, die jedoch anderswo als beleidigend gelten oder jenseits des Sagbaren stehen. Werden hier falsche Parameter gesetzt, wird die Regulierung übergriffig. Zugleich sollte stets nachvollziehbar sein, wie die KI zu ihren Ergebnissen kommt – etwa indem bei der Durchführung einer Aufgabe nicht nur ein Resultat erzeugt, sondern auch der Weg dorthin angezeigt wird.
4. Proaktive, werteorientierte Kommunikationsstrategien sind essenziell, um Desinformationskampagnen demokratisch zu kontern.
Desinformation und Manipulation feindlich gesinnter Staaten und Akteure kann nicht allein mit regulatorischen Maßnahmen begegnet werden – ebenso wichtig ist eine offensive strategische Kommunikation. Ziel dabei ist es nicht, selbst Desinformation oder Propaganda zu betreiben, sondern demokratische Werte und Prinzipien entschlossen nach außen zu kommunizieren. Ein gutes Beispiel bietet die Ukraine: Über viele Kanäle erzählt sie die Geschichte des russischen Überfalls und verhindert so, dass Russland die Deutungshoheit darüber bekommt. Sie stellt heraus, dass mit der ukrainischen Heimat auch Demokratie und Rechtsstaatlichkeit verteidigt werden. Dabei erweisen sich folgende vier Kommunikationsprinzipien als hilfreich:
- Sei vorbereitet. Es ist zentral, weitgehend unabhängig vom Kriegsgeschehen handlungsfähig zu bleiben.
- Sei schnell. Im richtigen Moment platzierte Zitate können eine enorme mobilisierende Wirkung entfalten, so etwa Selenskyjs „I need ammunition, not a ride.“
- Sei flexibel. Lange bürokratische Freigabeprozesse verschwenden kostbare Zeit.
- Sei kreativ. Unkonventionelle Ideen erwecken Aufmerksamkeit, so etwa das Hashtag #freetheleopard als Aufruf zur Lieferung von Leopard-Panzern oder die Weitergabe von in Minenfeldern produziertem Honig als protokollarisches Geschenk.
Die Teilnehmerinnen und Teilnehmer der Expertenrunde
Von links nach rechts: Miloš Gregor, Uta Staschewski, Isabella Wilkinson, Michael Martin Richter, Prof. Dr. Mateusz Mielczarek, Mateusz Łabuz, Dr Francesco Lapenta, Dr. Wolf Krug, Dr. Ofer Fridman, Viktori Lialina-Boiko, Prof. Dr. Thorsten Quandt, Ulrikke Dybdal Sørensen, Dr. Yevhen Popov, Prof. Dr. Andrew Liaropoulos, Lieutenant Colonel Aldo Kleemann, Thomas Haslböck, Peter Watkins, Dr. Joanna Kulesza, Daniela Munteanu, Dr. Monica Horten.
Kontakt
Leiter