High-Tech
Weshalb sich der Globale Süden Tech-Pessimismus nicht leisten kann
Im vergangenen Jahr sind die Schattenseiten von Internet und Künstlicher Intelligenz (KI) immer offensichtlicher geworden. Wir haben die Machtkonzentration bei einer Handvoll Tech-Oligarchen gesehen und die Risiken, die von unregulierten KI-Systemen ausgehen. Dagegen war Ihnen immer wichtig aufzuzeigen, dass KI für die Menschen weltweit Chancen und Hoffnung bringt. Sehen Sie das nach alledem, was im vergangenen Jahr geschehen ist, immer noch so?
Absolut. Diese Technologien verändern das Leben vieler, besonders in den Ländern der Majority World, wo viele Menschen in einem ressourcenarmen, gefährlichen und oft zutiefst repressiven Umfeld leben. Trotz aller Nachteile und Risiken sind diese Tools ein wesentlicher Teil unseres öffentlichen Lebens geworden.
Können Sie ein Beispiel nennen, welche Möglichkeiten KI in einem repressiven Umfeld bietet?
Seit die Taliban wieder an der Macht sind, wurden Frauen in Afghanistan in eine für uns unvorstellbare Lage zurückgedrängt. Sie haben keinen Zugang zu Bildung, Gesundheitsversorgung und öffentlichen Räumen; sie dürfen nicht einmal am Fenster stehen. Ihnen wird die Grundlage des menschlichen Daseins vorenthalten: die Möglichkeit, miteinander in Kontakt zu treten. Die Selbstmordraten sind in die Höhe geschnellt. Für diese Frauen ist digitale Technologie unverzichtbar geworden, besonders die empathische Art der Kommunikation von KI-Tools wie Claude oder DeepSeek. Mit ihnen können die Frauen Gespräche führen und sich weiterbilden; sie können sich gesehen und gehört fühlen.
Ein weiteres Beispiel: Mehr als 60 Länder weltweit stellen Homosexualität unter Strafe, oft sogar unter Todesstrafe. Queere Menschen in diesen Ländern können nicht einmal offen mit ihren Familien, Freund*innen oder Nachbar*innen sprechen. Also fragen sie die KI, ob das, was sie fühlen, normal ist. Und die GenAI-Tools werden antworten: Ja, es ist normal, und es ist vollkommen gesund. Diese Rückmeldung kann viele Menschen vor Depressionen und Selbstmord bewahren, sofern ihre Daten ausreichend geschützt sind.
Wie erleichtert KI den Alltag, wenn es an Ressourcen fehlt?
Frauen in Indien etwa verbringen neben ihrer beruflichen Tätigkeit viel Zeit mit Care-Aufgaben. Sie nutzen KI-Tools, um Fragen zu beantworten wie: „Ich habe eine Viertelstunde Zeit, folgende Zutaten im Kühlschrank, ältere Schwiegereltern mit Einschränkungen bei der Ernährung und Kinder mit unterschiedlichen Bedürfnissen; was kann ich kochen, das für alle passt?“ Das sind alltägliche, aber unverzichtbare Strategien, um mit einer erdrückenden Belastung umzugehen. Oder denken Sie an Kinder, deren Eltern keine Schule besucht haben und ihnen nicht bei den Hausaufgaben helfen können – was tatsächlich auf sehr viele Schüler*innen auf der ganzen Welt zutrifft. Wenn sich ihre Eltern keinen Nachhilfeunterricht leisten können, kann KI ihnen helfen. Ja, KI-Tools machen Fehler, aber das ist immer noch besser, als gar keine Unterstützung zu haben.
Kritische Stimmen warnen vor den Risiken eines unregulierten Einsatzes von KI. Nehmen wir zum Beispiel potenziell schädliche Gesundheitstipps: Sind da nicht strenge Vorschriften nötig?
Wir diskutieren immer wieder, ob man Social Media verbieten oder KI einschränken sollte, ohne aber wirklich die Erfahrungen der Menschen zu berücksichtigen. Weshalb haben KI-Tools wie ChatGPT und DeepSeek Download-Rekorde gebrochen? Weshalb nutzen Milliarden von Menschen sie für Gesundheitsratschläge oder zur Weiterbildung? Weil die meisten Menschen, besonders in Ländern der Majority World, keinen angemessenen Zugang zu hochwertiger Gesundheitsversorgung oder Bildung haben. Das gilt sogar im Westen: Überlegen Sie einmal, wie lange es dauert, über die öffentlichen Gesundheitssysteme in europäischen Ländern an einen Psychotherapieplatz zu kommen – und wenn sie ihn dann haben, verstehen die Therapeut*innen womöglich nicht einmal Ihren kulturellen Kontext. KI ersetzt weder Lehrer*innen noch Fachkräfte für psychologische Gesundheitsversorgung; sie springt einfach dort ein, wo Zugang oder Qualität fehlen. Es ist schwer, sich das einzugestehen, aber oft bietet KI bessere Dienstleistungen als unsere Institutionen. Statt darüber zu diskutieren, ob eine Technologie verboten werden soll oder nicht, sollten wir den Aufstieg der KI als Aufforderung verstehen, unsere Institutionen zu reformieren.
Es geht Ihnen kurz gesagt darum, sicherzustellen, dass die Tools den Menschen besser nutzen, richtig?
Genau. Wir sollten unsere Energie dafür aufwenden, diese Tools zu verbessern, vor allem, weil wir wegen Budgetkürzungen im öffentlichen Dienst unsere Ressourcen klug nutzen müssen. Allerdings müssen wir auch sicherstellen, dass ihre Nutzung sicher ist – dass sie zum Beispiel keine Gefahr für Kinder darstellen, und gegen Deepfake-Missbrauch vorgegangen wird. Deshalb befürworte ich einen rationalen Optimismus bezüglich dieser Technologien. Pessimismus ist ein Privileg für jene, die sich Verzweiflung leisten können. Oft sind diejenigen am pessimistischsten, denen es gut geht – die sagen, sie müssten offline gehen, weil sie eine zu große Followerschaft haben, oder Digital Detox machen, weil sie fünf Geräte besitzen. Es gibt ein ganzes Ökosystem von Akademiker*innen, Forschenden und Futurist*innen, die davon leben, ein binäres Untergangsnarrativ zu verkaufen. Das generiert Klicks, schürt Ängste und lenkt die Menschen in die völlig falsche Richtung.
Bei der Debatte um Social Media war es ganz ähnlich: Die Plattformen haben das Leben der Menschen verändert, aber zugleich Tür und Tor für Missbrauch geöffnet. Gilt das auch für KI?
Ja. Bewegungen wie MeToo und Black Lives Matter sind über Social Media erst möglich geworden. Das Problem ist nicht die Technologie – es ist die extreme Konzentration von Macht in den Händen weniger. Die Unternehmen hinter diesen Plattformen handeln nicht im öffentlichen Interesse, und es gibt keinen wirksamen Mechanismus, um sie zur Verantwortung zu ziehen.
Einige Länder, wie Indien und die EU-Länder, bemühen sich derzeit darum, ihre Abhängigkeit von US-Tech-Unternehmen zu verringern. Können Sie erklären, was zum Beispiel „India Stack“ und „EuroStack“ sind?
Angesichts der aktuellen geopolitischen Verschiebungen sind solche Bemühungen dringend notwendig und längst überfällig. Die USA sind kein verlässlicher Verbündeter mehr, und selbst wenn sich die derzeitige Regierung ändern sollte, sind die Lehren klar: Jede Instanz, die extrem viel Macht hat, neigt dazu, diese Macht zu korrumpieren und zu missbrauchen. Der India Stack ist eine staatlich betriebene Infrastruktur für digitale Dienste. Sie umfasst Identitätsprüfung und digitale Zahlungssysteme, Datenspeicherung, den Austausch von Gesundheitsdaten und andere grundlegende Dienste. Europa entwickelt derzeit den EuroStack, der teils vom India Stack inspiriert wurde. Beide haben das gleiche Ziel: sich aus der Abhängigkeit vom Silicon Valley zu lösen. Allerdings haben der europäische wie auch der indische Ansatz eine große Schwachstelle.
Was meinen Sie damit?
Es wird viel Energie in den Aufbau der Infrastruktur gesteckt, aber die Nutzer*innen werden kaum bedacht. Aber wenn die Menschen die Tools nicht intuitiv finden, werden sie wieder auf kommerzielle generative KI-Tools zurückgreifen. Das wäre eine enorme Verschwendung öffentlicher Mittel. Die Erfahrung der Nutzer*innen muss bei diesem Prozess das Wichtigste sein. US-amerikanische Unternehmen sind darin sehr gut: Sie optimieren die Nutzerinteraktionen, um ihre Produkte und Dienstleistungen zu skalieren.
KI-Infrastruktur benötigt hohe Investitionen, und US-Tech-Unternehmen haben enorme Ressourcen. Können Regierungen oder kleinere Unternehmen da überhaupt mithalten?
Wir werden immer weit weniger Ressourcen zur Verfügung haben als das Silicon Valley, aber das sollte auch nicht unser Vorbild sein. Die US-Tech-Giganten betreiben unglaublich verschwenderische Rechenzentren, die enorme Mengen an Ressourcen verbrauchen. Das Ziel sollte gezielte Innovation sein: Wie können wir weniger verbrauchen und gleichzeitig mit mehr Diversität mehr erreichen? Initiativen wie Sarvam AI und Lelapa AI sind tolle Beispiele dafür.
Beide Unternehmen entwickeln KI-Tools für Nutzer*innen im Globalen Süden und berücksichtigen dabei insbesondere lokale Sprachen und Akzente. Sarvam AI wird in Indien entwickelt, wo auch alle Daten erfasst und gespeichert werden. Lelapa AI spezialisiert sich auf afrikanische Sprachen und konzentriert sich auf die Entwicklung ressourcenschonender Tools.
Sarvam AI ist Teil einer umfassenderen indischen Initiative für Datensouveränität. Dieser landesweite Ansatz zielt darauf ab, die Daten der Bürger*innen zu schützen. In keinem anderen Land leben so viele junge Menschen wie in Indien, und Tech-Unternehmen sind sehr daran interessiert, auf deren Daten zuzugreifen. Lelapa AI hat eher einen Grassroots-Ansatz. Es wird von zivilgesellschaftlichen Organisationen und einer breiten Koalition von Partnern betrieben.
Warum ist Inklusion im KI-Bereich wichtig?
Die Majority World ist in den Daten, auf denen KI-Systeme basieren, absolut unterrepräsentiert. Neunzig Prozent der jungen Menschen weltweit leben im Globalen Süden, und insgesamt 85 % der Weltbevölkerung. Dennoch bleiben diese Menschen in den Datensätzen weitgehend unsichtbar: Ihre Sprachen werden von den Tools nicht unterstützt, ihre Akzente und Sprechweisen fehlen, und auf Google Maps werden ganze Dörfer gar nicht erst angezeigt.
Sie haben den Lehrstuhl für „Inclusive AI Cultures“ an der Universität Utrecht inne, eines Ihrer Projekte ist das „Inclusive AI Lab“. Können Sie mehr darüber erzählen?
Unser „Inclusive AI Lab“ ist eine KI-Initiative, die von Menschen aus dem Globalen Süden geleitet wird, insbesondere von Frauen. Sie fördert Führungskräfte und hilft bei der Entwicklung von KI-Tools, -Produkten und -Dienstleistungen, die die globale Mehrheit in den Mittelpunkt stellen. Wir arbeiten zum Beispiel mit Google zusammen, um ein Gender-KI-Sicherheitsprotokoll zu entwickeln, das die interkulturellen Aspekte von Deepfake-Missbrauch berücksichtigt. Zudem kooperieren wir mit kreativen Tech-Unternehmen wie Adobe, um kreative KI so zu trainieren, dass sie der visuellen Darstellung von Menschen aus dem Globalen Süden gerecht wird und zugleich den Bedarf von Kreativen mit unterschiedlichen Hintergründen berücksichtigt. Wenn man etwa Bilder von afrikanischen Kindern sucht, zeigen die Ergebnisse vor allem Armut. Das liegt daran, dass diese Inhalte jahrzehntelang von Hilfsorganisationen erstellt wurden, die ein einseitiges Narrativ bedienten. Natürlich gibt es Armut in Afrika, aber das ist längst nicht alles. Die meisten afrikanischen Eltern und Gemeinschaften würden ihre Kinder ganz anders darstellen. Neben solchen Projekten arbeiten wir mit Regierungen, Thinktanks, zivilgesellschaftlichen Organisationen und Forschenden aus dem Globalen Süden zusammen, um durch Datenhoheit und Handlungsmacht eine gerechte Zukunft zu gestalten.
Payal Arora ist Digital-Anthropologin und Professorin an der Universität Utrecht, wo sie den Lehrstuhl für „Inclusive AI Cultures“ innehat, sowie Begründerin des „Inclusive AI Lab“. Sie ist Autorin der Bücher „The next billion users“ (Harvard Press) und „From Pessimism to Promise” (MIT Press).
linkedin.com/in/payalarora