Tekst /// Jens van der Weide Beeld /// Bert Slenders
Ver voordat artificiële intelligentie (AI) de wereld bestormde, was er al een robot die de wereld versteld deed staan. In 1770 kwam de Hongaarse uitvinder Wolfgang von Kempelen met een automaton die iedereen kon verslaan in een potje schaak. Zijn machine, genaamd de ‘Mechanische Turk’, werd een bron van verbazing, vermaak en fantasie. Pas veel later viel het doek – letterlijk: onder het schaakbord en achter een doek zat een bekwame schaker verstopt die de robot bestuurde. De robot was helemaal geen robot. Eeuwen later, met de komst van AI, is de illusie van de Mechanische Turk nieuw leven ingeblazen. In alle verbazing, vermaak en fantasie mogen we namelijk niet vergeten dat er mensen áchter AI zitten. Dan heb ik het niet over goedbetaalde Silicon Valley-programmeurs, maar mensen die worden onderworpen aan uitbuiting en onderdrukking.
AI-onderzoek gaat razendsnel en werpt zijn bewonderenswaardige vruchten af. In het voorjaar van 2022 stond het internet in het teken van het magische Dall-E 2, een AI-model dat met slechts een paar zinnen de meest fantasierijke afbeeldingen kan genereren. Nog in hetzelfde jaar kwam ChatGPT ten tonele, een orakelachtige chatbot die elke vraag van een menswaardig antwoord kan voorzien. De apotheose van technologisch onderzoek is niet ver meer; we zitten in de vooravond van een tech-revolutie. AI gaat de wereld veranderen, denken we maar al te graag terwijl we rustig doorfantaseren over alles wat zij ooit zou kunnen zijn.
Toch is een soort hyperintelligente robot met volledige autonomie en zeggenschap over zijn keuzes niets meer dan een vertekend beeld van wat AI echt is. Een beetje doorklikken op de websites van de AI-modellen en je ziet al gauw de tekortkomingen van de algoritmen. ChatGPT heeft niet alle antwoorden en Dall-E 2 maakt naast overtuigende kunstwerken ook veel uitglijders. We zitten, te midden van de AI-manie, in een waan die nog eens extra wordt opgezweept door populaire sci-fi films, misleidende nieuwsberichten en vlotte quotes van overoptimistische tech-jongens. Dat is niet zonder consequenties. Het leidt ons af van de problematiek die schuilgaat achter het masker van AI. Problemen die niks te maken hebben met machtshongerige AI-robots die niet bestaan, maar met machtshongerige techbedrijven die wél bestaan.
AI-modellen hebben data nodig om te kunnen functioneren. Deze data zijn een enorme verzameling van kleine stukjes informatie die worden gebruikt om de algoritmen te ‘trainen’. Neem ChatGPT: om de indrukwekkende zinnen te produceren moet het model leren van miljarden bestaande woorden en zinnen uit alle hoeken van het internet. Dit is makkelijker gezegd dan gedaan. Waar AI aan de voorkant intelligent lijkt, is zij aan de achterkant oerdom: alles valt of staat met de kwaliteit van de data die het algoritme gevoerd krijgt. Hoewel elke beweging in de digitale wereld datavoetstappen achterlaat, zijn bruikbare data niet zomaar verkregen. Een beetje overtuigend algoritme heeft miljoenen tot miljarden stukjes data nodig. Voorgekauwd, welteverstaan, want er zijn een hoop data die niet in het algoritme terecht moeten komen, zoals dubbele, irrelevante of zelfs schadelijke data.
Een nieuw tijdperk van digitale arbeid
Zo’n twintig jaar geleden was die data-afhankelijkheid een nog groter knelpunt. Grote datasets die gebruikt konden worden voor onderzoek naar AI kwamen maar mondjesmaat op de markt. Amazon bedacht hier een oplossing voor: met het werk van heel veel mensen tegelijk kun je bakken met data verwerken. Het bedrijf lanceerde een crowd work-service waarbij enorme hoeveelheden tijdrovend werk opgeknipt konden worden in kleine beetjes. Miljoenen flexwerkers van over de hele wereld konden dan deze opgeknipte taken tegen marginale betaling uitvoeren. De service kreeg de toepasselijke naam ‘Mechanical Turk’ en maakte nieuw onderzoek naar AI mogelijk. Ook luidde hij een nieuw tijdperk van digitale arbeid in; in de markt opende zich een gat voor nieuwe databedrijven met mensen in dienst die tegen lage lonen data gebruiksklaar maken.
Met de toenemende complexiteit van de modellen wordt het vinden van juiste data ook ingewikkelder. OpenAI moest met de ontwikkeling van ChatGPT bijvoorbeeld op zoek naar de juiste data om het model voldoende te trainen. De ChatGPT die wij kennen is niet de eerste in de serie. Dat zijn voorganger weinig bekendheid genoot kwam omdat hij nog niet klaar was voor publiek gebruik. De menselijkheid van de antwoorden van dit oudere model was opvallend, maar het gebruik van gewelddadig, seksistisch en racistisch taalgebruik nog veel meer. Dat is eigenlijk niet zo gek: het internet als datamijn omvat natuurlijk álle facetten van de mens. De ingenieurs moesten weer terug naar de tekentafel met de vraag: hoe maken we het algoritme mensvriendelijker? Geïnspireerd door de aanpak van socialmedia-reuzen als Facebook, die op hun platforms met vergelijkbare problemen worstelden, werd een oplossing bedacht: ChatGPT moest leren wat schadelijk materiaal is. Het enige wat daarvoor nodig was, was heel veel schadelijk materiaal en heel veel arbeidskrachten om – à la de Mechanische Turk – een dataset in elkaar te sleutelen.
Fast forward naar 18 januari 2023. In Time Magazine verschijnt een ontluisterend artikel over het werk dat gedaan moest worden om ChatGPT te verbeteren. OpenAI is hiervoor een samenwerking aangegaan met Sama, een ‘ethical AI’-bedrijf met het hoofdkantoor in San Francisco en vestigingen in Kenia, Oeganda en India. Hier heeft het zogeheten content labelers en moderators in dienst die grote datasets klaarmaken voor techbedrijven in het Westen. De labelers etiketteren kleine stukjes data zodat een algoritme dit kan gebruiken om te leren. De moderators hebben de huiveringwekkende taak om data door te spitten en te ontdoen van alles wat een internetgebruiker niet mag zien – en vooral niet wil zien.
Wat blijkt? Het zelfbenoemde ‘ethische’ bedrijf blijkt slechts een verlengstuk te zijn van Westerse uitbuiting. Uit het onderzoek van Time rollen schrikbarende conclusies over het werk dat mensen moesten doen in opdracht van OpenAI. Niet alleen was het werk van labelers en moderators zwaar, ook de omstandigheden waren hachelijk. Meerdere werknemers gaven aan dat ze negen uur per dag als robots achter een computerscherm weerzinwekkend materiaal moesten doorgronden onder grote tijdsdruk. De traumatische aard van het werk liet zijn mentale sporen na, maar voldoende begeleiding werd niet geboden of was vanwege de werkdruk onmogelijk. Dit geschiedde allemaal tegen een mager uurloon van minder dan twee euro. De werkzaamheden werden uiteindelijk dusdanig onhoudbaar dat Sama alle samenwerking met OpenAI beëindigde.
Geheel in de geest van de Mechanische Turk blijkt AI menselijker te zijn dan we onszelf voorhouden en, in alle ironie, zijn het juist de mensen achter de schermen die als robots worden behandeld.
Dit is het onzichtbare werk achter ChatGPT, de AI-technologie die met zoveel lof werd onthaald. Dit verhaal is helaas geen uitzondering in de techwereld. In hetzelfde artikel komen vergelijkbare verhalen naar boven over de ontwikkeling van datasets voor OpenAI’s Dall-E. Eerder kwam ook al een vernietigend artikel over de gruwelijke werkzaamheden in opdracht voor Facebook (Time, 14 februari 2022). De wanpraktijken van Sama, OpenAI en andere techbedrijven dienen als schrijnende herinnering dat digitale innovatie gepaard gaat met arbeidsuitbuiting. Geheel in de geest van de Mechanische Turk blijkt AI menselijker te zijn dan we onszelf voorhouden en, in alle ironie, zijn het juist de mensen achter de schermen die als robots worden behandeld.
Hoe nu verder? De meest radicale optie zou zijn om alle vormen van AI op te schorten. Gezien de technofilie van het Westen is dit niet de meest voor de hand liggende optie, maar noemenswaardig is ook dat AI als technologie in de kern niet kwaadaardig is. Met de huidige implementatie ervan is het echter de vraag hoeveel goeds er nog van overblijft. Productiever is het om de focus in het debat omtrent ‘ethische AI’ te verleggen van wat AI ‘kan zijn’, naar wat AI is. Op dit vlak wordt veel werk verzet door Radical AI, een collectief dat gelooft in de potentie van AI, maar zich ook uiterst kritisch uitlaat over de huidige ontwikkeling ervan. Middels onderzoek wil het collectief tonen wat de reële gevaren van AI zijn en hoe vraagstukken over machtsverdeling, uitbuiting, racisme en andere onderbelichte facetten de kern van AI-ethiek moeten vormen. Voordat we onszelf bangmakende fantasieën over kwaadaardige AI toefluisteren, moeten we ons namelijk eerst druk maken over de schrikbarende verhalen die wél de realiteit zijn.