Disinformation
Wie Taiwan gegen Desinformation vorgeht

Audrey Tang interviewt von Eva-Maria Verfürth
Audrey Tangs Reise begann 2014, als in Taiwan Proteste gegen ein geplantes Handelsabkommen mit China aufflammten. Zu der Zeit war sie Computerprogrammiererin und gehörte der Oppositionsgruppe Sunflower Movement an, die demonstrierte und das taiwanesische Parlament besetzte, bis das Handelsabkommen gestoppt war. Die Bewegung führte zu einem Anstieg der Bürgerbeteiligung in Taiwan und stärkte die Demokratische Fortschrittspartei (DPP), die enge Beziehungen zu China ablehnt. Nach dem Wahlsieg der DPP 2016 lud die Regierung Audrey Tang ein, Ministerin ohne Geschäftsbereich zu werden; von 2022 bis 2024 war sie die erste Ministerin für Digitales des Landes.
Im Vorfeld der Präsidentschaftswahlen 2024 in Taiwan war das Land ausgeklügelten Desinformationskampagnen ausgesetzt. Es wurde eine erhebliche ausländische Einmischung beobachtet, besonders aus China. Dennoch konnten die Auswirkungen eingedämmt werden, und weder die Demokratie noch das Vertrauen der Öffentlichkeit in die Integrität der Wahlen wurden untergraben. Wie war dies möglich?
Es gab drei Pfeiler, mit denen unser „Information Resilience Ecosystem“ (Ökosystem der Informationsresilienz) diese Angriffe erfolgreich abwehren konnte:
- Schnell: Zivilgesellschaftliche und offizielle Kanäle veröffentlichten Richtigstellungen innerhalb der „Goldenen Stunde“ – also ehe sich Gerüchte erhärten konnten.
- Fair: Alle großen Plattformen gingen streng gegen gefälschte Konten vor und machten „Know your customer“-Ansätze bei Inseraten zur Pflicht.
- Lustig: Memes, die Gerüchten mit Humor begegneten („Humour over rumour“), waren erfolgreicher als die Provokationen, die Wut schürten; und auf Richtigstellungen von Bürger*innen gab es mehr Reaktionen als auf die Falschmeldungen.
Dadurch, dass die Bürger*innen den Prozess miterlebten, blieb das Vertrauen bestehen: Der Freedom House Index, der den Zugang zu politischen Rechten und bürgerlichen Freiheiten misst, bewertet Taiwan mit 94 von 100. Laut Bertelsmann Transformation Index (BTI) 2024 nimmt die langfristige Polarisierung in Bezug auf nationale Identität trotz Wahlspitzen ab. 91 Prozent bewerten unser demokratisches System immerhin als „ziemlich gut“.
Sie erwähnten die „Goldene Stunde“: Wie haben die Behörden während der Wahlperiode kommuniziert?
Über festgelegte Kanäle können manipulierte Informationen direkt an das zuständige Ministerium gemeldet werden. Das Ministerium ist dann verpflichtet, so schnell wie möglich, idealerweise innerhalb von 60 Minuten, eine Gegendarstellung zu verfassen. Wir haben unsere Beamten und Politiker darin geschult, schnell zu reagieren, und die Regierung ist in der Tat sehr reaktionsfähig geworden, insbesondere in Wahlzeiten.
Warum ist es wichtig, schnell zu reagieren?
Wenn Sie innerhalb einer Stunde reagieren, hat das einen Prebunking-Effekt. Die Richtigstellung kommt bei den meisten Menschen schneller an als die manipulierte Information. Eine verzögerte Reaktion hingegen hat nur einen Debunking-Effekt, mit wenig Einfluss auf die öffentliche Meinung. Prebunking ist immer effektiver als Debunking.
Debunking bedeutet, Fehlinformationen zu korrigieren, nachdem sie verbreitet wurden, Prebunking will die Menschen erreichen, ehe sie auf falsche Informationen stoßen. Kann man denn auch noch einen Prebunking-Effekt erreichen, nachdem eine Fehlinformation bereits veröffentlicht wurde?
Ja, vorausgesetzt, es gibt ein wirksames Überwachungssystem und man kann innerhalb von 60 Minuten reagieren. Noch besser ist es allerdings, solche Angriffe zu antizipieren. Ich habe 2022 selbst einen Deepfake von mir selbst gemacht, um zu zeigen, was auf uns zukommt und wie wichtig es ist, „immer erst zu überprüfen, bevor man etwas weiterleitet“.
Ein weiteres Instrument, das Taiwan gegen Desinformation einsetzt, ist die Faktencheck-Plattform Cofacts. Das ist ein Chatbot. Menschen können darauf Informationen posten, auf die sie gestoßen sind, und die Faktenprüfer-Community fragen, ob sie stimmen oder nicht. Wie genau funktioniert das?
Es ist wie Wikipedia für Faktenprüfung. Wenn jemand eine Information überprüfen lassen möchte, kann er sie auf LINE stellen – das ist ein verschlüsselter Nachrichtendienst, der ähnlich wie WhatsApp funktioniert. Diese Meldung wird in eine transparente, gemeinsam gepflegte Datenbank aufgenommen, auf die jeder zugreifen kann. Sie wird nicht von der Regierung betrieben.
Eine Studie der Cornell University von 2023 hat gezeigt, dass Cofacts Anfragen häufig schneller und meist genauso präzise beantwortet wie professionelle Faktenchecks. Wer sind die Menschen hinter Cofacts?
Cofacts dient als Plattform, die auf Crowdsourcing basiert, aber von zivilgesellschaftlichen Gruppen und professionellen Faktenprüfer*innen wie dem Taiwan Fact Check Center unterstützt wird. Durch Crowdsourcing wird schnell sichtbar, welche Themen sich wahrscheinlich verbreiten werden und daher überprüft werden sollten. Auf diese konzentrieren sich die professionellen Faktencheck-Teams. Aber die Plattform steht jedem offen, und auch Freiwillige spielen eine wichtige Rolle bei der Faktenprüfung. Das Cofacts-Team hat auch ein Sprachmodell trainiert, das schon eingreifen kann, ehe das erste professionelle Team beginnt. Der Chatbot liefert – basierend auf früheren Fällen – eine sofortige Antwort. Er kann zum Beispiel erkennen, ob ein Vorfall einem memetischen Virus ähnelt, das es schon einmal gab und lediglich eine Mutation ist.
Wie erreichen Sie, dass Menschen auch wirklich mitmachen?
Die Mitarbeit an Cofacts gehört zum Medienkompetenztraining, das in Schulen und in unseren Programmen für lebenslanges Lernen, etwa der Erwachsenenbildung, angeboten wird. Schüler*innen bekommen beispielsweise die Aufgabe, während einer Präsidentschaftsdebatte live die Fakten zu überprüfen. Das ist eine wichtige Erfahrung, denn der Prozess der Beurteilung, welche Quellen vertrauenswürdig sind, kann den Verstand „impfen“, die Menschen also resilienter gegen Desinformation und Verschwörungserzählungen machen. Das passiert nicht, wenn man die korrekten Fakten nur vorgesetzt bekommt. Und: Wenn die Schüler*innen dadurch erkennen, dass sie einen Beitrag zur Gesellschaft leisten können, sind sie eher bereit, auch außerhalb der Schule an der gemeinschaftlichen Überprüfung von Fakten mitzuwirken.
2019 hat Taiwan den allgemeinen Lehrplan reformiert. Wie hat es die Faktenprüfung auf den Lehrplan geschafft?
Das Ziel der Medienerziehung ist nicht mehr Medienbildung, sondern Medienkompetenz. Bei Medienbildung geht es darum, wie man als Individuum mit Informationen umgeht. Medienkompetenz bedeutet, zum allgemeinen Verständnis, zur gesellschaftlichen Wahrheitsfindung beitragen zu können. Vor 2019 war das übergreifende Bildungsziel, dass Schüler*innen Standardantworten erfassen und reproduzieren können. Inzwischen ist Künstliche Intelligenz (KI) besser darin, Standardantworten zu geben als Schüler*innen und Lehrkräfte. Wir wollen stattdessen Interaktion und Kreativität fördern. Die Schüler*innen lernen, ihre Neugier zu wecken, mit unterschiedlichen Menschen zu kooperieren und die Zusammenarbeit als eine Win-win-Situation zu erleben und nicht als Nullsummenspiel. Auch wenn die KI alles übernimmt, was mit Standardantworten zu tun hat: Diese Werte können nur Menschen anbieten. Sie beruhen auf gegenseitigem Verständnis und Fürsorge.
In der jüngsten PISA-Rangliste der OECD waren die taiwanesischen Schüler*innen in allen drei Kategorien – Mathematik, Lesen und Naturwissenschaften – unter den besten fünf. Würden Sie sagen, dass die Bildungsreformen erfolgreich waren?
Die PISA-Rangliste zeigt, dass wir bei den MINT-Leistungen (Mathematik, Informatik, Naturwissenschaften und Technik) nichts eingebüßt haben, seitdem wir uns auf staatsbürgerliche Kompetenz fokussieren. Das ist das Beste, was herauskommen konnte. Zugleich haben wir in anderen Bereichen Fortschritte gemacht: In einer internationalen Studie zur politischen Bildung und Demokratiebildung (ICCS) von 2022 belegten taiwanesische Schüler*innen den ersten Platz bei staatsbürgerlichem Wissen. Gute Ergebnisse hatten sie auch bei bürgerschaftlichem Engagement, Vertrauen in staatliche Institutionen und ihrer Fähigkeit, zu ökologischer Nachhaltigkeit, sozialen Fragen und Menschenrechten beizutragen.
Für Sie persönlich war der Aufstand 2014 ein wichtiger Moment. Damals war das Vertrauen in den Präsidenten sehr gering, ist seitdem aber deutlich gestiegen. Was ist in der Zwischenzeit geschehen?
2014 war ein Wendepunkt. Die Nutzung der sozialen Medien hatte ein Rekordhoch erreicht, die Menschen konnten ihre Meinung online frei äußern. Allerdings spalteten „Engagement durch Wut“-Algorithmen die Gesellschaft. Unser Ansatz bestand darin, den Entscheidungsprozess der Regierung transparent und den Menschen offene Echtzeitdaten verfügbar zu machen. Zudem haben wir Online-Bürger*innenversammlungen eingeführt, in denen die Menschen über wichtige Themen diskutieren und abstimmen konnten. Die Plattform für bürgerschaftliche Zusammen-arbeit g0v führt seit 2014 offene Bürger-Konsultationen über Online-Tools und analoge Treffen durch. Wir haben die Vertrauenskrise nicht dadurch überwunden, dass wir die Menschen aufgefordert haben, der Regierung zu vertrauen – sondern indem wir die öffentlichen Stellen ermutigt haben, den Menschen zu vertrauen.
Soziale Medien sind riesige Umschlagplätze für Desinformation. Wie kann man die Verbreitung von Fehlinformationen verhindern?
Erstens sollte man dafür sorgen, dass das Online-Ökosystem eine Komponente zur Faktenprüfung enthält. Zweitens sollte man nicht zulassen, dass Bots in den sozialen Medien ihr Unwesen treiben – Meinungsfreiheit beinhaltet nicht das Recht, eine unbegrenzte Anzahl von Bots zu erstellen. Bots sollten kein Recht auf freie Meinungsäußerung haben. Deshalb sollte man sicherstellen, dass die Plattformen sichere „Know your customer“-Technologien (KYC) oder digitale Signaturen verwenden, um die Authentizität der Nutzer*innen zu überprüfen. Drittens sollten Social-Media-Unternehmen für alle Schäden haftbar gemacht werden, die eintreten, wenn sie die Vorschriften nicht einhalten. Wenn etwa eine Social-Media-Plattform in Taiwan Betrügereien verbreitet und diese nicht abstellt, obwohl sie gemeldet wurden, haftet die Muttergesellschaft für alle Schäden, die den Nutzer*innen entstehen. So wird sichergestellt, dass das Unternehmen die Last des Schadens teilt. Facebook, YouTube und TikTok haben bereits solide KYC-Verfahren eingeführt. Wir haben auch ein Gesetz entworfen, das eine digitale Authentifizierung für Nutzer*innen sozialer Medien vorschreibt. Soziale Medien polarisieren die Menschen nicht zwangsläufig – es hat damit zu tun, wie Plattformen gestaltet sind.
Wie haben die Bürger*innen auf die Idee eines Gesetzes zur digitalen Authentifizierung reagiert?
Diese Vorschrift wurde bei einer Online-Bürger*innenversammlung im März 2024 per Crowdsourcing ermittelt. Durch stratifizierte Zufallsstichproben ausgewählte Bürger*innen diskutierten über Informationsintegrität. Es zeigte sich, dass die Menschen eindeutig gegen eine staatlich gelenkte Moderation der Inhalte, aber für eine digitale Authentifizierung waren.
Was empfehlen Sie anderen Ländern, um ihr Informationsökosystem zu verbessern?
Erstens sollten sie einen Breitband-Internetzugang als Menschenrecht betrachten. In Taiwan stellt der „Universal Service Fund“ bidirektionale Breitbandverbindungen zur Verfügung, sogar in ländlichen Gebieten und auf dem Gipfel des Yushan, der fast 4000 Meter hoch ist. Andernfalls würde man sehr viele Menschen von der Teilhabe am gesellschaftlichen Leben im Internet ausschließen. Seit 2019 haben wir ein Bildungssystem, bei dem besonders Schüler*innen, Lehrkräfte und andere Lernende zum Gemeinwohl beitragen. Es ist wichtig, ein Gefühl der Handlungsfähigkeit zu fördern und Menschen zu befähigen, einen gesellschaftlichen Beitrag zu leisten. Wenn sie hin und wieder etwas falsch machen, ist das nicht schlimm. Wenn sich genügend Menschen beteiligen, gleicht das Ökosystem des Wissens dies meist nach einer Weile aus.
Wie sieht es mit Technologien aus?
Je mehr Technologien und Software Open Source sind, desto eher passen die Menschen sie an ihre tatsächlichen Bedürfnisse an. Regierungen können in Public Code investieren, das ist quelloffene Technologie in Verbindung mit einem Verhaltens- und Nutzungskodex. Oder Regierungen bringen Technologie-Begeisterte, die an freien und Open-Source-Inhalten arbeiten, mit Organisator*innen und Pädagog*innen aus der Zivilgesellschaft zusammen. Beide Gruppen teilen dasselbe Ethos, und wenn sie sich gegenseitig stärken, entsteht etwas Wunderbares – eine zivile Technologiegemeinschaft. Open-Source-Infrastruktur ist dann am erfolgreichsten, wenn dahinter eine Offline-Gemeinschaft steht – also Menschen, die sich regelmäßig treffen. Diese persönlichen Begegnungen stärken die bürgerlichen Muskeln, das Vertrauen zwischen den Menschen. Mein wichtigster Ratschlag ist, die auf Gemeindeebene bestehenden Bürger*innengruppen nicht zu umgehen, sondern sie vielmehr anzuzapfen. So können aus informellen Verbindungen zwischen zivilgesellschaftlichen Gruppen mit der Zeit stärkere Bindungen heranwachsen.
Taiwan hat viel Anerkennung für seinen Umgang mit Desinformationen über das Coronavirus bekommen. Eine Strategie bestand darin, Fehlinformationen mit Hilfe von Memes zu entlarven. Wie kann Humor helfen, Desinformation zu bekämpfen?
Humor war entscheidend für unseren erfolgreichen Kampf gegen Corona. Er hat ein „ungewöhnliches Terrain“ geschaffen und statt zu polarisieren die gesellschaftliche Widerstandsfähigkeit gefördert. Während der ersten Welle im Jahr 2020 gab es widersprüchliche Informationen über die Wirksamkeit von Masken. Einige behaupteten, dass „wir durch SARS die Erfahrung gemacht haben, dass nur die hochwertigste Maske, die N95, sinnvoll sei“, während andere behaupteten, dass „es schade, eine Maske zu tragen“. Als die Wissenschaft noch keine genauen Kenntnisse hatte, wurde die Debatte dadurch polarisierend. Wir reagierten darauf mit einer öffentlichen Bekanntmachung, in der eine süße Shiba-Inu-Hündin ihre Pfote an den Mund hält und sagt: „Tragt eine Maske, um euch gegenseitig daran zu erinnern, eure ungewaschenen, schmutzigen Hände von eurem Gesicht fernzuhalten.“ Dieser humorvolle Ansatz funktionierte, weil er das Thema neu aufzog. Statt auf die polarisierende Masken-Debatte einzugehen, lenkte das Meme die Aufmerksamkeit auf die Handhygiene – ein wenig polarisierendes Thema, auf das sich alle einigen konnten.
Zudem schuf es gemeinsame Erfahrungen: Menschen, die über die Shiba-Inu-Botschaft lachten, verbanden sich emotional miteinander auf eine Weise, die über ihre ideologischen Differenzen zum Thema Masken hinausging. Damit soll aber nichts bagatellisiert werden – natürlich ist ein Virus eine sehr ernste Sache, aber wir wollen es auf eine Weise ernst nehmen, die die Gesellschaft widerstandsfähiger machen kann.
Die Wirkung war messbar. Wir überprüften den Leitungswasserverbrauch und stellten fest, dass nach der Kampagne mehr verbraucht worden war. Humor ermöglichte es den Menschen, trotz anfänglicher Meinungsverschiedenheiten oder ideologischer Differenzen konstruktiv zu reagieren und sich in der Krise zu vereinen statt zu spalten. Das illustriert Taiwans breit angelegte „Humor statt Gerüchte“-Strategie, die Witz und gemeinsames Lachen nutzt, um Brücken zu bauen und gleichzeitig ernste Probleme der öffentlichen Gesundheit anzugehen.
Audrey Tang ist Cyber-Botschafterin und ehemalige Ministerin für Digitales von Taiwan.
audreyt@audreyt.org
plurality.net