AI en wij
Op 30 november 2022 veranderde de wereld van de kunstmatige intelligentie. Van een niche voor specialisten zette AI de stap naar een product voor het grote publiek. Op die dag lanceerde OpenAI namelijk ChatGPT: een intelligente chatbot gebaseerd op een Large Language Model (LLM). De lancering symboliseert de exponentiële versnelling van de ontwikkeling en de maatschappelijke integratie van artifical intelligence (AI). In dit artikel willen we kritisch reflecteren over deze nieuwe technologie, die de discussie tussen lovers en haters overstijgt en verder gaat dan techniek alleen. De vraag hoe dicht kunstmatige intelligtentie bij menselijke intelligentie komt, proberen we niet te beantwoorden. Maar ook zonder megalomane claims over de capaciteiten van ChatGPT en andere GPT’s is het duidelijk dat het toepassingsveld gigantisch is en groeiende.
Wij sommen enkele toepassingen voor u op: het beantwoorden van de meest uiteenlopende feitelijke vraagstukken, het eenvoudig uitleggen van complexe (bijvoorbeeld wiskundige of wetenschappelijke) materie, het helpen schrijven van moeilijke programmeercode (wat een enorme impact heeft op de efficiëntie van programmeurs), het mede-automatiseren van rechtspraak, het (accuraat) vertalen van hele teksten en boeken naar elke gewenste taal, het automatiseren van het becijferen van tentamens en opdrachten, diagnostische ondersteuning in de medische wereld, het classificeren van objecten in foto’s en video’s, accurate analyse van sentimenten (de sfeer) in teksten, foto’s en videos (bijvoorbeeld: vrolijk of bedroefd), enzovoorts.
Als gevolg van deze groeiende reeks toepassingen zal kunstmatige intelligentie in de voorzienbare toekomst een steeds grotere rol gaan spelen in onze maatschappij. Zelfs voor fervente tegenstanders – waar wij onszelf niet toe rekenenen – maakt dit een heldere reflectie op het fenomeen noodzakelijk. Maar daarvoor is het eerst nodig om de achterliggende technologie enigszins te verduidelijken.
‘Welke kleur heeft een appel?’
We beginnen met een noot over terminologie. De afkorting GPT in ChatGPT staat voor Generative Pre-trained Transformer. Dat wil zeggen dat deze chatbot gebaseerd is op een nieuwe vorm van kunstmatige intelligentie (de zogenaamde transformer-architectuur) die aan de hand van enorme hoeveelheden publiekelijk toegankelijke tekstdata algemene taalpatronen geleerd heeft, en op basis van die verkregen kennis nieuwe en coherente tekst kan genereren.[1] De term ‘chat’ slaat op het feit dat de gewone gebruiker concreet met deze GPT technologie kan interacteren. Voor het eerst kan een breed publiek met kunstmatige intelligentie aan de slag. Hoe werkt ChatGPT nu?
ChatGPT begint met het verwerken van de gebruikersinput: de zogenaamde prompt. Die kan bijvoorbeeld bestaan uit een vraag, een geüpload tekstdocument of een foto. ChatGPT ‘leest’ deze input, en berekent, als functie van die prompt, een output die een mens kan begrijpen en lezen. Deze output komt tot stand doordat ChatGPT de input ‘encodeert’, vervolgens verwerkt in een zogenaamde latente wiskundige representatie (een interne, wiskundige vertaling van de betekenis en context van de input), en op basis daarvan een output ‘decodeert’. Het decoderen resulteert dan weer in de tekst of afbeelding die de gebruiker als output te zien krijgt. Het proces van decoderen wordt aangestuurd door de enorme hoeveelheden tekstdata waarop het model vooraf is getraind.
Als je onder de motorkap van deze chatbot kijkt, dan doet het model niets anders dan per woord van de output berekenen wat de waarschijnlijkheid is dat er een ander woord op zou kunnen volgen. Bijvoorbeeld, als de gebruiker vraagt: ‘Welke kleur heeft een appel?’, encodeert het model de woorden ‘kleur’ en ‘appel’, en kijkt dan in z’n enorme ‘latente representatie’ (ook wel: embedding space) naar woorden die ‘dicht bij’ deze woorden gevonden kunnen worden. Een mogelijk antwoord van de chatbot zou dan kunnen luiden: ‘Een appel kan rood, groen, geel of een combinatie van deze kleuren zijn, afhankelijk van het ras en de rijpheid.’ Op het woord ‘een’ volgt dan volgens de berekening van het model met de hoogste waarschijnlijkheid het woord ‘appel’, daarop weer ‘kan’ en dan ‘rood’ en de verdere kleuren. Woorden als ‘rood’, ‘groen’, ‘geel’ zijn dus in het model geassocieerd met de input ‘appel’ en ‘kleur’, maar ook met ‘ras’ en ‘rijpheid’.
Hetzelfde proces is ook van toepassing op veel complexere prompts. Dat komt omdat het model outputs kan genereren die op veel betekenisniveaus samenhangen met de input, namelijk: de woorden op zichzelf (appel, kleur), de verbanden binnen de prompt (er wordt om een kleur van gevraagd, kleur en appel zijn dus aan elkaar gerelateerd) en ook de intentie van de gebruiker (de gebruiker vraagt in de prompt immers om informatie). GPT kan op die manier enorm veel verschillende intenties ‘herkennen’. De prompt om een gedicht van één couplet te schrijven over een rode appel, levert bijvoorbeeld volgende output op:
Een rode appel glanst in ’t licht,
zoet en fris, een klein gedicht.
Zijn schil zo zacht, zijn kern zo fijn,
een stukje herfst in zonneschijn.
Ook als het om harde kennis gaat zijn dit soort modellen steeds succesvoller. ChatGPT o1 haalt een 10 op het VWO examen wiskunde B1.[2] Doordat de berekeningen die voor dit soort complexe toepassingen nodig zijn in de cloud worden gemaakt, heeft elke smartphonegebruiker deze enorme rekenkracht in principe in z'n broekzak zitten.
Reflecteren over wat AI is
De combinatie van exponentiële ontwikkelingen binnen het AI-veld en de massale introductie van LLM’s op de consumentenmarkt (via applicaties zoals ChatGPT) roept tegengestelde reacties op. Aan de ene kant zijn er mensen die het einde van de wereld voorspellen, hetzij door een machtsovername van zelfbewuste computernetwerken, zoals in de Terminator films, ofwel door de totale vervreemding van de mens van zichzelf. Het is deels uit vrees voor dit soort reacties dat grote techbedrijven zoals Google en Microsoft lang hebben gewacht met AI-chatbots voor het grote publiek. Aan de andere kant zijn er mensen die het effect van LLM’s willen minimaliseren. Dit kan bijvoorbeeld door te benadrukken waartoe ChatGPT (nog) niet in staat is, of door te wijzen op zijn vergissingen. Het kan ook door het fenomeen te reduceren tot wat zich onder de motorkap bevindt: het is gewoon een geavanceerde rekenmachine.Geen reden voor apocalyptische doemscenario’s
Wij denken dat er – toch op dit moment – geen reden is voor apocalyptische doemscenario’s. Ja, AI zal onze wereld fundamenteel veranderen. Maar datzelfde gold voor de landbouwrevolutie, de boekdrukkunst, de industriële revolutie, de computer en het internet. Hoewel al deze technologische innovaties een enorme impact hebben gehad op de manier waarop we onszelf en de wereld om ons heen begrijpen en vormgeven, zijn mensen er wonderwel in geslaagd om ze te integreren in hun dagelijks leven. ‘De mens is een schepsel dat aan alles went, en dat is geloof ik wel de beste definitie die je van hem kunt geven,’ schrijft Dostojevski.[3] Ook aan AI raken we gewend, misschien wel sneller dan we denken. Voor wie een tijdje werkt met het vraag-antwoord systeem van ChatGPT, voelt de Google zoekmachine al ouderwets aan. Na de zoveelste lijst aan semi-relevante zoekresultaten betrap je jezelf op de vraag: ‘Waarom begrijpt hij niet wat ik bedoel?’ Dat ChatGPT die ervaring wel creëert – de ervaring dat je vraag begrepen wordt – en dat we daar nu al aan gewend zijn, toont tegelijk de radicaliteit van de technologie (we voelen ons begrepen door een machine), maar ook het gemak waarmee we aan die volslagen nieuwheid wennen.
Juist omdat we aan alles wennen, is het goed onszelf te dwingen stil te staan bij het fenomeen ChatGPT. De vraag is hoe je dat doet. Veel mensen, zowel leken als wetenschappers, hebben de neiging om ChatGPT te beoordelen met als maatstaf het menselijke kenvermogen. De focus ligt op wat ChatGPT ‘(al) wel’ kan, en wat ‘(nog) niet’, uitgedrukt in wat mensen dan vooral wel kunnen. Die neiging is logisch: het idee van dit soort kunstmatige intelligentie is dat ze menselijke intelligentie benadert. Het is dus niet meer dan normaal dat we dan het eerste afmeten aan het laatste. De beroemde Turingtest is de wetenschappelijke vertaling van die alledaagse neiging. Hoewel dit een begrijpelijke en soms ook behulpzame manier van nadenken over AI is, beperkt het ook de blikrichting die een heldere kritiek mogelijk maakt. De discussie wordt dan namelijk al snel puur technisch van aard, en elke bedenking is, door de razendsnelle ontwikkeling van AI, al gauw voorbijgestreefd.
We geven een simpel voorbeeld. We laden een foto van een deel van onze boekenplank in in ChatGPT 4o en vragen om een lijst van de titels en auteurs te maken. Model 4o doet dat, maar maakt een aantal fouten, onder andere, door de slechte leesbaarheid van sommige boekruggen op de foto. Wanneer het op die fouten wordt bevraagd, worden deze niet herkend maar vervangen door andere fouten. Wanneer wordt gevraagd over welke titels het model het minst zeker is, worden niet de foute maar enkele juist geïdentificeerde boeken genoemd. Je zou hier een hele beschouwing kunnen opzetten over de manier waarop ChatGPT geen onderscheid kan maken tussen zekere en onzekere gegevens, zijn eigen onzekerheid niet kan herkennen, en hoe dat zich onderscheidt van menselijke intelligentie.Bedenkingen zijn al achterhaald als ze geschreven zijn
Maar als je precies dezelfde foto uploadt in het nieuwere model ChatGPT o1 krijg je een ander resultaat. In tegenstelling tot zijn voorgangers maakt ChatGPT o1 gebruik van zogenaamde chain-of-thought reasoning. Het kan als het ware een redenering opzetten, en daarmee zichzelf actief bevragen. ChatGPT o1 geeft een correcte lijst van titels en auteurs, en bij de minder duidelijk leesbare titels verzint hij er geen auteur bij, maar benoemt hij zijn eigen onzekerheid. Waar ChatGPT 4o een boek met de titel De dwaas Gods oncorrigeerbaar toeschreef aan Hubert Lampo, zegt ChatGPT o1: ‘Er staat een boek met de titel De dwaas Gods, de auteur is door slijtage en lichtinval niet duidelijk te herkennen.’[4] De technische capaciteit van dit nieuwe model haalt de grond weg onder onze eerdere mogelijke bedenkingen over de relatie tussen ChatGPT en de menselijke intelligentie.
Wij denken dat dit voorbeeld illustratief is voor een groot deel van de discussie over AI: bedenkingen en kritieken zijn al achterhaald op het moment dat ze geschreven zijn, simpelweg omdat de technologie zich zo snel ontwikkelt. In dit voorbeeld slaagt het nieuwere model o1 erin ‘te beseffen’ dat een van ruggen moeilijk leesbaar is en die onzekerheid te benoemen. Iets waar zijn voorganger 4o nog niet toe in staat was. Daarom is het wat ons betreft nodig om op een ander niveau over LLM’s te reflecteren: niet over hoe ze presteren, maar over wat ze zijn.
Status quo reproduceren
Een wezenskenmerk van tools zoals ChatGPT is dat ze de neiging hebben dominante overtuigingen in een samenleving te repliceren, en dissidente stemmen te verzwijgen of te minimaliseren. Ze zijn fundamenteel systeembevestigend. Dat heeft minstens twee oorzaken. In de eerste plaats komt het door de aard van de LLM’s zelf. Zoals eerder uitgelegd, genereert een LLM (op een complexe manier) de meest waarschijnlijke combinatie van woorden in reactie op een prompt. Maar wat die waarschijnlijkheidsrelatie is, hangt af van de data waarop het model getraind is. Woorden en begrippen die in die dataset vaak samen worden gebruikt (bijvoorbeeld ‘roken’ en ‘longkanker’) zullen ook door het LLM met elkaar in dat verband worden gebruikt. LLM’s repliceren dus de betekenispatronen die in de trainingsdata aanwezig zijn. Dat is geen bijkomstigheid, dat is waarom ze überhaupt werken. Aangezien die trainingsdata vooral Westers en Engelstalig zijn, worden met name feiten en overtuigingen die in ons publieke discours dominant zijn gespiegeld door tools als ChatGPT.
In de tweede plaats zorgt menselijke besturing voor het systeembevestigende karakter van ChatGPT. Dit gebeurt op twee niveaus. Tijdens het trainingsproces wordt het LLM door mensen bijgestuurd. Voordat het model publiek wordt, wordt het door honderden mensen bevraagd, en de output beoordeeld. Alles wat onwelgevallig is kan worden weggestemd, zodat het model steeds wenselijkere output gaat geven. Op die manier worden veel feitelijke onjuistheden vermeden, maar ook dominante overtuigingen bevestigd. Waar LLM’s worden vertaald naar chatbots die voor gewone gebruikers zijn bedoeld, komt hier nog een bijsturing bij door de verantwoordelijke bedrijven. Een bedrijf als OpenAI is er niet alleen veel aan gelegen dat zijn product feitelijk juiste outputs genereert, maar ook dat controversiële outputs van ethische of levensbeschouwelijke aard worden vermeden. Dat is zowel van politiek als commercieel belang. Vandaar de veelgehoorde klacht dat outputs van ChatGPT zo eindeloos genuanceerd, oninteressant en politiek correct zijn. In eerdere versies van ChatGPT was het nog relatief gemakkelijk om de chatbot een karakter te laten aannemen dat allerlei ongepaste meningen of opmerkingen produceerde. Dit is door ingrijpen van OpenAI in de huidige versies zo goed als onmogelijk. ChatGPT heeft dus een dubbele neiging om de status quo in overtuigingen te reproduceren: enerzijds door de aard van het LLM zelf, anderzijds door menselijke bijsturing gedurende het trainingsproces of vanuit bedrijven zoals OpenAI. ChatGPT wordt op die manier een eindeloze herhaling van zetten.
Stilzwijgende bevestiging van vooroordelen
Dit essentiële kenmerk van ChatGPT brengt verschillende problemen met zich mee. Ten eerste wordt het voor gebruikers steeds moeilijker om kennis te nemen van informatie of meningen die niet mainstream zijn. Je ziet dat concreet bij de integratie van AI in zoekmachines (zoals de copilot-functie bij Bing, de zoekmachine van Microsoft). In plaats van een lijst van websites (waar af en toe weleens een afwijkende mening tussen zit) krijgt de gebruiker een door AI gegenereerd en dus gestroomlijnd antwoord, dat enkel het dominante discours herhaalt. Voor mensen die zich zorgen maken over de wildgroei aan desinformatie en allerhande complottheorieën, klinkt dit wellicht eerder als een voordeel dan een bezwaar. Maar het antwoord op desinformatie is juiste informatie, niet het wegnemen van de mogelijkheid om kennis te nemen van afwijkende meningen.ChatGPT presenteert zich bij ethische vragen als neutrale verslaggever
Het probleem is bovendien dat de bias van ChatGPT verhuld wordt door een waardenvrije stijl van presenteren. Dit komt het duidelijkst naar voren bij gevoelige ethische onderwerpen of bij vragen over religieuze of levensbeschouwelijke thema’s. In plaats van een eenduidig antwoord, biedt ChatGPT een reeks argumenten, en benadrukt voortdurend dat de overtuiging in kwestie (wel of geen abortus, God bestaat wel of niet) afhangt van iemands persoonlijke beleving, culturele achtergrond, of individuele ervaring. ChatGPT presenteert zich in levensbeschouwelijke of morele zaken als een neutrale verslaggever die alle mogelijke subjectief te prefereren opties voorlegt waaruit de gebruiker maar te kiezen heeft.
Wat hier helemaal ongezegd blijft, is dat deze subjectivistische houding ten opzichte van morele of religieuze overtuigingen zelf typisch is voor Westerse, liberale samenlevingen en maar een van de vele opvattingen die mogelijk zijn over het statuut van religieuze of morele overtuigingen. Maar juist omdat dit ongezegd blijft, krijgt de gebruiker onvermijdelijk de indruk dat religieuze of morele opvattingen iets zijn van de privésfeer en vooral de uitdrukking van allerlei contingente factoren, zoals cultuur of persoonlijkheid. Dit in tegenstelling tot opvattingen met betrekking tot wetenschap, waarbij ChatGPT zich probleemloos het statuut van objectieve arbiter aanmeet en de ene boven de andere theorie prefereert omwille van wat een meerderheid van de wetenschappers zegt.
Dat het een dergelijke houding niet aanneemt ten opzichte van religie – dus bijvoorbeeld het monotheïsme plausibeler vindt dan het animisme omdat het meer aanhangers heeft of er betere argumenten voor aan te dragen zijn – is een gevolg van een welbepaalde, onuitgesproken opvatting over wat het statuut is van religieuze overtuigingen. Een opvatting die bovendien kenmerkend is voor geseculariseerde, liberale westerlingen, en niet voor mensen uit andere culturen of geloofsgemeenschappen. Het probleem met een AI-toepassing als ChatGPT is dat ze dit soort fundamentele vooroordelen op een structurele manier reproduceert en bevestigt. Het gaat om meningen die niet als mening worden gepresenteerd, maar die als achtergrond fungeren waartegen ChatGPT zijn output genereert, en die daardoor helemaal onbevraagd blijven. Het is dan ook waarschijnlijk dat gebruikers ze ongemerkt zonder meer voor vanzelfsprekend zullen aannemen. Het is moeilijk voor te stellen dat de stilzwijgende bevestiging van dit soort vooroordelen het publieke debat ten goede zal komen.
Kritische, reflectieve houding
In deze bijdrage hebben we slechts enkele aspecten besproken van de manier waarop ChatGPT het dominante discours reproduceert, zowel op het niveau van de overtuigingen als op het niveau van de achtergrond waartegen die worden geformuleerd. Er zijn andere en misschien belangrijkere te vinden. Het is onze bedoeling een denkrichting aan te geven, eerder dan definitieve antwoorden te formuleren. Het gaat bovendien maar om één manier waarop tools zoals ChatGPT de samenleving kunnen beïnvloeden. We willen hierbij onderstrepen dat de vraag naar wat kunstmatige intelligentie uiteindelijk voor ons zal betekenen minder afhangt van zijn technische ins en outs, dan van de manier waarop deze technologie in de samenleving wordt ontvangen. De vraag wat het filosofische statuut is van de betekenissen die ChatGPT genereert is veel minder belangrijk dan hoe mensen in de samenleving naar die betekenis kijken. Het is veel relevanter om te zien of mensen in de praktijk ChatGPT beginnen te behandelen als een volwaardige actor die andere mensen kan vervangen, dan om te weten waar theoretisch precies het verschil zit tussen menselijke en kunstmatige intelligentie. Hoe deze ontwikkeling er concreet uit zal zien is moeilijk te voorspellen. Maar ze vraagt in elk geval om een kritische, reflectieve houding. We hopen daar in deze bijdrage een aanzet toe te hebben gegeven.
Dr. ir. Y.B. Eisma is universitair docent cognitieve robotica aan de faculteit Mechanichal Engineering van de TU Delft. Dr. G.J. Zuijdwegt werkt als gastprofessor aan de faculteiten Theologie en religiewetenschappen en Rechtsgeleerdheid en criminologische wetenschappen van de KU Leuven.
- Voorbeelden van databases met zulke tekstdata zijn: Common crawl (https://commoncrawl.org/), Wikipedia, arXiv en PubMed.
- Zie de Winter, Joost C. F., Dimitra Dodou, and Yke Bauke Eisma, "System 2 Thinking in OpenAI’s o1-Preview Model: Near-Perfect Performance on a Mathematics Exam," Computers 13, no. 11 (2024): 278. https://doi.org/10.3390/computers13110278
- Fjodor Dostojevski, Aantekeningen uit het dodenhuis (LJ Veen Klassiek, 2015), p. 22.
- Toegegeven, het is een obscuur werk. Voor de nieuwsgierige lezer: het werd (oorspronkelijk in het Engels) geschreven door de laat negentiende-eeuwse Nederlandse schrijver Maarten Maartens.