Aller au contenu principal
Pour une autre politique de développement!

Beitrag vom 25.05.2023

Zeit Online

Fünf vor acht

Welche Hautfarbe hat ChatGPT?

In KI-Anwendungen wie ChatGPT lauert die Gefahr, Stereotype zu verstärken. In Afrika setzen dennoch viele Menschen auf künstliche Intelligenz. Im Guten wie im Schlechten.

Eine Kolumne von Andrea Böhm

Akili bandia. So heißt künstliche Intelligenz auf Swahili. Syriacus Buguzi ist nicht ganz zufrieden mit dem Begriff. In Swahili, sagt er, "klingt die Übersetzung nach 'vorgetäuschtem Wissen'." Was in so mancher Hinsicht den Kern von KI-Anwendungen wie ChatGPT ganz gut beschreibt.

Buguzi ist Mediziner und Herausgeber der ersten Zeitung für Wissen und Technologie auf Swahili, der Amtssprache seines Heimatlandes Tansania. In einem Interview mit der BBC beschrieb er, wie der internationale Wissenschaftsbetrieb mit seiner Dominanz der englischen Sprache Millionen Landsleute von der Berichterstattung über Klimaforschung, Agrarwissenschaft oder die neuesten Malaria-Studien ausschließt.

Also hat er MwanaSayansi gegründet. Der Wissenschaftler – so lautet der Name seiner Zeitung. Unter anderem versucht er seinen Leserinnen und Lesern zu erklären, wie KI ihre Welt verändern könnte.

Geht es um KI, Afrika und Menschen mit dunklerer Hautfarbe, spielt eine Frau eine zentrale Rolle: Timnit Gebru dürfte allen, die sich intensiver mit dem Thema beschäftigen, bekannt sein. Für alle anderen: Gebru wurde 1983 in Addis Abeba geboren, floh mit 15 aus Äthiopien, landete im Asylverfahren in den USA, dann als Studentin an der Stanford University, wo sie sich schnell als eine der begabtesten Computerwissenschaftlerinnen entpuppte. Im Dezember 2020 geriet sie in die Schlagzeilen, als ihre Karriere bei Google als Co-Leiterin der Abteilung für Ethik in der KI abrupt endete. Gebru hatte mit anderen Autorinnen in einem Forschungspapier grundlegende Kritik an den Sprachmodellen der KI geübt.

Auf die Trainingsdaten der KI kommt es an

Zum einen würden die Serverfarmen aufgrund der immer gigantischeren Datenmengen in der Computerlinguistik enorm viel Strom verbrauchen. Zum anderen würden KI-Sprachmodelle, entwickelt nach dem Motto je größer, desto besser, zunehmend unkontrollierbar und diskriminierend gegenüber nicht weißen, nicht männlichen Bevölkerungsgruppen.

Denn KI wird letztlich geprägt durch die Wissenschaftler, die sie entwickeln – und durch die Trainingsdaten. Solche Datensätze, schreiben Gebru und ihre Co-Autorinnen, würden "hegemoniale Standpunkte überrepräsentieren und Vorurteile kodieren". Die Chefetage bei Google war nach der Lektüre nicht erfreut.

Dass ihre eigene Branche Probleme mit dem Thema Hautfarbe hat, war Gebru von Beginn an klar. Jahrelang machte sie die Erfahrung, auf Fachkonferenzen höchstens drei, vier weitere schwarze Menschen zu entdecken. 2017 gründete sie mit einer Kollegin Black in AI, eine Organisation, die schwarze KI-Forscherinnen fördert.

Das Problem dahinter ist weit größer als der Mangel an Diversität. Wie weiß ist ChatGPT? Wie viel Rassismus und Diskriminierung sickert aus der analogen in die neue Welt der künstlichen Intelligenz? Und wie sehr werden sich herrschende Machtverhältnisse und Ungleichheit in der digitalen Ökonomie fortsetzen?

Zum letzten Punkt: Dass nicht nur analoge, sondern auch digitale Drecksarbeit gern an Subunternahmen im Globalen Süden ausgelagert wird, ist inzwischen bekannt. Dagegen regt sich jetzt Widerstand. Gerade erst wurde der Facebook-Mutterkonzern Meta in Kenia verklagt wegen unhaltbarer Arbeitsbedingungen für Content-Moderatoren. Die fischen, angestellt bei Subunternehmen, für einen Hungerlohn Inhalte heraus, die gegen Meta-Richtlinien verstoßen: Videos von Morden, Gewaltpornografie und Ähnliches.

Was macht der KI-Boom mit Afrika?

Das Thema Rassismus und Algorithmus haben Wissenschaftlerinnen wie Timnit Gebru zumindest auf die Tagesordnung gesetzt. Ob und wie schnell sich die KI-Riesen im Silicon Valley dieser Debatte ernsthaft stellen, ist eine andere Sache. Bleibt die Frage, wie Afrika am Boom der KI teilhaben wird. Denn es gibt eine wachsende Nachfrage. Im Guten wie im Schlechten.

Autokratische Regierungen interessieren sich für KI-gesteuerte Überwachungstechnologie, oft made in China. Polizeibehörden in verschiedenen afrikanischen Staaten nutzen KI-Systeme im Einsatz gegen Kriminalität, dschihadistische Gruppen oder organisierte Wilderer.

Und dann gibt es Start-ups wie Lelapa AI in Südafrika, das KI "für Afrikaner von Afrikanern zur Lösung afrikanischer Probleme" entwickeln will. Wofür es erst einmal Datensätze braucht und qualifizierte Wissenschaftlerinnen, die sie verarbeiten und einspeisen können. Weshalb Lelapa zum einen afrikanischstämmige Expertinnen aus dem westlichen Ausland auf den Heimatkontinent zurücklocken will und zum anderen ganz eigene Ansätze bei der Programmentwicklung versucht.

Statt die Modelle US-amerikanischer Konzerne nachzuahmen, arbeitet Lelapa an kleinen Projekten für bestimmte Zielgruppen: eine KI-Übersetzungssoftware, die es Müttern ermöglicht, mit Ärztinnen zu kommunizieren; ein noch in der Entwicklung steckendes KI-Programm zur Lokalisierung und Nachverfolgung von Raubkunst. Oder VulaVula, ein Programm für die vielen Sprachen auf dem Kontinent, die von verschiedenen ethnischen Gruppen (und damit auch Millionen potenziellen Kundinnen) benutzt werden. VulaVula ist bereits auf dem Markt.

Denn wer ChatGPT auf isiZulu, Tschiluba oder Wolof anspricht, bekommt offenbar nur Unsinn zu hören (nicht dass ich das nachprüfen könnte, ich verlasse mich hier auf die Schilderungen afrikanischer Kolleginnen). Für Pelonomi Moiloa, Mitgründerin von Lelapa AI, einerseits Ausdruck globaler technologischer Ungleichheit, andererseits eine Riesenchance. "Die Tatsache, dass ChatGPT bei unseren Sprachen versagt", sagte sie vor Kurzem dem panafrikanischen Magazin The Continent, "ist die Gelegenheit, unser eigenes Haus zu bauen." Und zwar jetzt sofort, bevor man im Silicon Valley herausgefunden habe, wie Afrikas Datenrohstoffe ausgebeutet werden können. Und dann alles wieder nach altbekanntem Muster abläuft.