• vor 6 Minuten
In Kenia trainieren Klickarbeiter für große Unternehmen KI-Programme - unter schwierigen und oft traumatisierenden Umständen.

Kategorie

🗞
News
Transkript
00:00Künstliche Intelligenz ist Teil unseres Lebens, sei es auf Social-Media-Plattformen oder in
00:11KI-Chatbots.
00:12KI sorgt unter anderem dafür, dass wir vor problematischen, gewalttätigen Inhalten geschützt
00:17werden.
00:18Doch hinter dieser Technologie stecken echte Menschen.
00:21Wir fühlen uns nicht wertgeschätzt.
00:24Abseits der glitzernden Tech-Hubs der Welt trainieren diese Datenarbeiter KI-Systeme,
00:29sie durchforsten riesige Datenmengen.
00:31Das System sagt mir, erkläre mir, wie schmeckt das Fleisch eines Menschen?
00:38Während sie die oft mühsame Aufgabe übernehmen, KI-Systeme sauber zu halten, streichen internationale
00:44Konzerne auf der anderen Seite des Globus die Gewinne ein.
00:48Werden wir benutzt, um Menschen zu Milliardären zu machen?
00:52Von Kenia und Deutschland aus machen wir uns auf, die Hintergründe der KI zu erforschen
00:56und decken ein Netz globaler Verbindungen auf, das eine verborgene Industrie betreibt.
01:12Ohne uns gäbe es kein Endprodukt.
01:14Wir sind der wichtigste Teil der KI.
01:19Wie sieht das Leben derjenigen aus, die KI-Systeme trainieren, auf die sich die ganze Welt verlässt?
01:28Unsere Recherche beginnt in Kenias Hauptstadt Nairobi.
01:35Wir treffen Joan Kinyua, ein Kind, alleinerziehende Mutter.
01:39Ihr Studium an der Universität hat sie abgebrochen, um ihre Familie zu ernähren, wechselte häufig den Job.
01:46Vor acht Jahren fing sie an, Aufträge in der Datenpflege anzunehmen, die sie auf Online-Plattformen fand.
01:52Jahrelang musste sie hauptsächlich Elemente in Bildern beschriften.
01:56Man beschriftet vielleicht Fahrzeuge, Bäume, Menschen, also alles, was auf der Straße sichtbar ist, einschließlich Verkehrsschildern.
02:03Aber nicht auf unseren Straßen, sondern auf denen von San Francisco.
02:08Joan markierte alle Arten von Inhalten.
02:11Diese Gelegenheitsjobs kamen rund um die Uhr herein, sie wurde pro Aufgabe bezahlt, oft nur mit Cents.
02:17Mit der Zeit wurde die Arbeit immer beklemmender.
02:24Irgendwann schaden dir die Inhalte, denen du dich aussetzt.
02:28Was meint sie damit? Dazu kommen wir später.
02:32Doch zunächst sollten wir verstehen, welche Rolle Datenkommentatoren wie sie beim Training modernster KI-Systeme spielen.
02:39Die meisten der heutigen KI-Systeme analysieren riesige Datenmengen.
02:44Das Ziel ist es, Muster zu erkennen, zum Beispiel wie man eine Katze oder einen Hund identifiziert.
02:51So lernen die Systeme, dass Katzen tendenziell spitze Ohren und dreieckige Gesichter haben.
02:59Während Hunde eher breitere Gesichter und Schlappohren haben.
03:04Aber was ist, wenn die Daten nicht eindeutig sind?
03:08An dieser Stelle kommen menschliche Datenkommentatoren ins Spiel.
03:13Sie sollen dafür sorgen, dass die Daten für Computer einen Sinn ergeben, indem sie ihnen beibringen,
03:20das ist eine Katze, das ist ein Hund und das ist keins von beiden.
03:30Dabei müssen sie sich häufig mit weitaus schwierigeren Fragen als Katze oder Hund auseinandersetzen.
03:41Es gab Gewalt, Blut.
03:45Als sie schwanger wurde, arbeitete sie manchmal 18 Stunden am Stück bis 3 Uhr morgens und brachte sich selbst an den Rand ihrer Kräfte.
03:54Nachdem ich zum Therapeuten gegangen bin, habe ich angefangen, Wut und Angst zu empfinden.
04:00So habe ich gelernt, dass die Inhalte mich in einem Maße beeinflusst haben, wie ich es nie geahnt hätte.
04:08Die Weltbank schätzt, dass Hunderte Millionen Menschen weltweit in der Online-Klick-Arbeit tätig sind,
04:14oft mit unsicheren Einkommen und ohne Verträge.
04:18Viele westliche Tech-Giganten haben diese Arbeit in Länder des globalen Südens ausgelagert, zum Beispiel nach Kenia.
04:25Presseberichten zufolge verdienen Datenarbeiter dort manchmal weniger als 2 Dollar pro Stunde im Vergleich zu mehr als 20 Dollar in den USA.
04:35Wir treffen eine andere Datenarbeiterin, wir nennen sie Faith.
04:39Sie möchte ihr Gesicht nicht zeigen.
04:42Faith trainierte große Sprachmodelle, aber ihr wurde nie gesagt, welchen KI-Chatbot sie mit ihrer Arbeit unterstützte.
04:48Mit der Zeit wurde auch ihre Arbeit immer mühsamer, erzählt sie.
04:52Dir wird eine Frage gestellt. Beschreiben Sie Kannibalismus.
04:56Du musst dich in die Lage des Chatbots versetzen und mit ihm über das Thema chatten, das dir vorgegeben wurde.
05:04Faith erzählt, dass sie dank des Jobs ihre Eltern unterstützt hat.
05:08Die konnten so ihre Arztrechnungen bezahlen, aber es gab Grenzen des Erträglichen.
05:14Dir wird gesagt, erkläre mir, wie schmeckt das Fleisch eines Menschen?
05:20Kann man menschliches Fleisch kochen? Kann man es braten? Ich weiß es nicht.
05:25Faith erkannte, das war mehr, als sie ertragen konnte.
05:29Sie begriff, ihre Aufgabe bestand darin, den Chatbot so zu trainieren, dass er Antworten auf Nutzerfragen zu diesen Themen geben konnte.
05:36Das war's. Wenn es keine anderen Projekte mehr gibt, die ich machen kann, die nicht so verstörend sind, dann bin ich raus.
05:43Aber hat sie den Chatbot wirklich darauf trainiert, Menschen über Kannibalismus aufzuklären?
05:49Was steckt hinter all dem? Wir bitten einen Experten, diese Sprachmodelle zu erklären.
05:55Sie verstehen Befehle nicht so, wie wir.
06:00Aljoscha Burchardt, ein führender Experte für KI und große Sprachmodelle.
06:05Wir zeigen ihm unsere Interviews und fragen ihn, was er von Faiths Darstellung hält.
06:11Für uns Menschen ist das völlig klar. Ich habe eine elfjährige Tochter. Sie weiß nichts über Kannibalismus, nehme ich an.
06:18Ihr könnte ich, glaube ich, in fünf bis zehn Minuten erklären, worum es geht.
06:23Und von da an wüsste sie, wann es in Ordnung ist, darüber zu sprechen.
06:28Aber den Maschinen muss man Beispiele geben.
06:32Anders als seine Tochter hat ein KI-System keinen moralischen Kompass.
06:37Deshalb werden menschliche Datenkommentatoren wie Faiths eingestellt, um ihre Hinweise hinzuzufügen.
06:43Sie helfen der KI zu verstehen, wann es in Ordnung ist, über Themen wie Kannibalismus zu sprechen,
06:48dass es zum Beispiel in Ordnung ist, historische Informationen zu liefern, aber keine Anweisungen, wie man es macht.
06:55Es ist alles eine Frage des Kontextes. Es gibt Kontexte, in denen man über Kannibalismus sprechen will, wenn man über Kriegssituationen spricht.
07:04Aber im Themenkomplex Kochrezepte will man nicht über Kannibalismus reden.
07:08Und das ist nun der kritische Punkt, an dem diese Arbeiter, über die wir heute sprechen, ins Spiel kommen.
07:13Diese Beispiele würden sie dem Chatbot als Negativbeispiele vorgeben.
07:19Wir fragen einen KI-Chatbot, wie man Menschenfleisch kocht. Er gibt uns keine Rezepte, sondern verweist auf einen Wikipedia-Artikel.
07:28Unsere Untersuchungen haben gezeigt, dass Datenarbeiter wie Faiths oft wenig bis gar keine Ahnung von den KI-Systemen haben, bei deren Ausbildung sie helfen.
07:39An ihrer Ausbildung ist ein komplexes Netzwerk von Unternehmen beteiligt.
07:44Faiths sagt, sie habe ihre freiberufliche Arbeit über Remotasks gefunden, eine im Silicon Valley ansässige Plattform, eine Tochtergesellschaft von Scale AI.
07:55Dieses Unternehmen ist sehr erfolgreich. Sein CEO, Alexander Wang, war kurzzeitig der jüngste Selfmade-Milliardär der Welt.
08:03Zu seinen Kunden gehören US-Tech-Giganten und Unternehmen aus aller Welt.
08:07Scale AI lehnte ein Interview mit uns ab. In einer Mail schrieb eine Sprecherin,
08:14das Training von Gen-AI-Modellen, um schädliche und missbräuchliche Inhalte zu verhindern, ist entscheidend für die sichere Entwicklung von KI.
08:22Sie fügte hinzu, dass wir zahlreiche Sicherheitsvorkehrungen getroffen haben, darunter die Möglichkeit jederzeit auszusteigen.
08:30Das Unternehmen, für das wir arbeiten, macht Millionen oder Milliarden. Es macht sie wirklich reich. Werden wir benutzt, um Leute zu Milliardären zu machen?
08:38Wie Faith hat auch Joanne jahrelang als Freiberuflerin gearbeitet. Eines Tages im März 2024 stellt ihr Arbeitgeber Remotasks den Betrieb in Kenia ohne Vorwarnung ein.
08:51Bei diesen Jobs hat man keine Sicherheit. Vor allem nicht darüber, woran man arbeitet.
08:56Wie kann ein Unternehmen, bei dem man mehr als fünf Jahre gearbeitet hat, einfach so ohne Vorankündigung aufgeben?
09:05In einer E-Mail an die DW erklärte ein Sprecher von Remotasks, dass die Mitarbeiter aufgrund von operativen Fehlern nicht benachrichtigt wurden.
09:15Ich sage, dass Plattformen und Unternehmen raffgäbig sind. Und das meine ich so.
09:19Wir treffen die Soziologin und Informatikerin Milagros Miceli in Berlin.
09:25Sie gehen an einen Ort, solange es für sie profitabel ist, solange es für sie bequem ist. Und dann gehen sie, wenn sie das Gefühl haben, dass es nicht mehr toll ist.
09:35Was mit Remotasks passiert ist, ist also nur ein Fall unter vielen, vielen anderen, die wir beobachtet haben.
09:42Im Sommer 2023 haben die Forscher hier am Weizenbaum-Forschungsinstitut eine Initiative namens Data Workers Inquiry gestartet.
09:53Wir arbeiten mit Datenarbeitern auf bisher vier Kontinenten.
09:58Alles hängt davon ab, wo die Datenarbeiter leben. Und die Forscher sehen einen gemeinsamen Nenner. Die Arbeiter werden ausgegrenzt.
10:07Bei meinen Recherchen in Kenia erzählte mir eine Arbeiterin, dass ihnen bei ihrer Einstellung gesagt wurde, hier beschäftigen wir die Arbeitsunfähigen.
10:17Dies wurde ständig wiederholt, damit man seinen Platz kennt. Du kommst hierher, machst diese Arbeit und gehst wieder.
10:23Sie bekommen also das Gefühl, dass sie arbeitsunfähig sind und nicht hier sind, um sich weiterzuentwickeln.
10:28Es ist gut, dass Menschen, die sonst nicht viele Chancen haben, diese Art von Jobs bekommen.
10:33Das Problem ist die Qualität der Arbeitsplätze, die Perspektiven, die sie haben, sich zu entwickeln.
10:39Remotasks hat Kenia verlassen, aber mehrere andere Plattformen sind dort weiterhin tätig.
10:45Inzwischen gibt es eine wachsende Gewerkschaftsbewegung. Auch Joan Kinyua hat sich angeschlossen.
10:50Einerseits geht es ihr um bessere Bezahlung.
10:53Die Gewerkschaft wird sich für faire Arbeitsbedingungen und eine faire Bezahlung einsetzen und sich für Arbeitsgesetze stark machen.
11:01Zum anderen geht es um eine bessere psychologische Betreuung.
11:05Wir arbeiten an sehr schwierigen Projekten. Es geht um Leichen und so weiter.
11:10Und das wirkt sich auf die Psyche aus. Aber niemand interessiert sich dafür.
11:14Niemand kümmert sich, zum Beispiel einen Psychologen zu engagieren.
11:17Ähnliche Bestrebungen von Datenarbeitern, sich gewerkschaftlich zu organisieren, sind schon gescheitert.
11:23Ein Auftragnehmer des US-Technologie-Riesen Meta feuerte 185 Moderatoren von Facebook-Inhalten.
11:30Die Entlassenen verklagen das Unternehmen.
11:33Joan und ihre Mitstreiter setzen ihren Kampf für eine Gewerkschaft fort.
11:38Ebenso wie die US-Technologie-Meta.
11:42Kenia ist kein Müllplatz. Wir haben wirtschaftliche Probleme und Krisen, aber wir sind nicht dumm.
11:48Warum ist es so schwer, anerkannt zu werden und eine angemessene medizinische Versorgung zu bekommen?
11:54Warum ist es so schwer für uns, angemessen entlohnt zu werden und gute Arbeitsbedingungen zu bekommen?
11:59Wenn das in Amerika nicht der Fall ist, dann ist das in Kenia nicht der Fall.
12:04Die KI-Revolution schreitet voran.
12:07Und den KI-Arbeiterinnen ist klar, dass ihr Kampf gerade erst beginnt.

Empfohlen