‘Deze tekst is (nog) niet door een algoritme geschreven’
‘Deze tekst is (nog) niet door een algoritme geschreven’
‘Net zoals de rekenmachine ons deed nadenken over wat we met rekenvaardigheden willen bereiken, biedt de artificiële intelligentie die teksten kan produceren, een gelijkaardige kans’, schrijven Mauritz Kelchtermans en Massimiliano Simons. Nee, dit opiniestuk is niet door een algoritme geschreven. Nog niet. Maar we gaan in de richting van een toekomst waar die vraag de norm wordt. De hype rondom nieuwe ontwikkelingen zoals GPT-3 en nu recent ChatGPT, ontwikkeld door OpenAI, is dezer dagen moeilijk te negeren. GPT-3 is een Artificiële Intelligentie (AI)-algoritme dat natuurlijke taal kan genereren, zoals tekst of spraak. Het kan op wonderbaarlijke wijze (meestal) coherente teksten produceren naar aanleiding van eenvoudige vragen. De resultaten van GPT-3 zijn inderdaad verbluffend. Het algoritme antwoordt binnen een oogwenk op elke vraag of instructie en dat zelfs in het Nederlands. Wil je een roman over een kat naar Mars? Geen probleem. Een essay met drie argumenten waarom het wereldkampioenschap voetbal toch ethisch zou zijn? Geen probleem. Een sonnet in de stijl van Shakespeare over de coronapandemie? Kan. Een opiniestuk over de effecten van GPT-3 op onze maatschappij? Check (we zijn toch eens gaan kijken). Overal zijn mensen met GPT-3 aan het experimenteren. Zo zijn er al onderzoekers die een volledig door GPT-3 geschreven artikel over waarom GPT-3 impact zal hebben op het schrijven van academische artikels hebben opgestuurd naar een tijdschrift (ja, zo origineel zijn wij niet). GPT-3 lijkt ook een indrukwekkende voorspellingskracht te kennen. Wat je daaraan hebt? Het resultaat van de voorgangers van GPT-3 zie je al bij Google, Gmail of LinkedIn: vaak suggereert de applicatie al de zoektermen of de antwoorden die je kan geven op een mail of persoonlijk bericht. Dat gaat in de toekomst nog meer de regel worden. Toch zijn er ook zaken met deze nieuwe technologie die ons zorgen baren. Allereerst weet je nooit of dat wat het algoritme produceert ook maar enigszins klopt. Zoals de meeste AI-algoritmes, zijn GPT-3 en binnenkort GPT-4 getraind op basis van afschuwelijke grote datasets met data uit het verleden. Als iets dus vaak genoeg herhaald geweest is, zal het algoritme het ook herhalen, zelfs al is het fout. Zo reproduceert GPT-3 bijvoorbeeld soms lang weerlegde stadsmythes, zoals dat je pas een half uur na het eten mag gaan zwemmen of dat een mens gemiddeld zeven spinnen opeet tijdens zijn slaap (beiden niet waar). Of leg het algoritme bijvoorbeeld het volgende raadsel voor: een knuppel en een bal kosten in totaal €1,10. De knuppel kost €1,00 meer dan de bal. Hoeveel kost de bal? GPT-3 zal, net zoals de meeste mensen, het foute antwoord geven, dat de bal 10 cent kost (het correcte antwoord is 5 cent). Ook reproduceert elk niet geoptimaliseerd groot taalmodel (large language model) racistische en seksistische vooroordelen, want ook die zitten in die datasets ingebakken. Laat je GPT-3 spreken over een CEO dan zal het aan een man refereren, bij aan poetshulp naar een vrouw. In die zin is GPT-3 niet gericht op het correcte antwoord, maar op hoe het in het verleden was. Of dat verleden correct of ethisch was, daar staat het fundamenteel onverschillig tegenover. Die voorspellende krachten van GPT-3 komen dus eigenlijk neer op een extrapolatie naar de toekomst op basis van het verleden. Hoogstens worden het oude in een nieuw jasje gestoken wordt. Het heeft wat weg van hedendaagse Hollywoodfilms: een machine die gedeeltelijk draait op nostalgie, herhaling en remakes (die merkwaardig genoeg vaak genoeg floppen). Waarom is schrijven van teksten dan zo makkelijk te automatiseren? Het antwoord is confronterend: veel schrijfwerk is an sich al mechanisch en voorspelbaar. Lewis Mumford zei het al meer dan 100 jaar geleden: om de arbeider te vervangen door een machine, moet het werk eerst gemechaniseerd worden. GPT-3 kan gemakkelijk krantenartikelen of studentenessays schrijven omdat zulke teksten al voorspelbare regels volgen. Sommigen zien dit wellicht als goed nieuws. Hoera, algoritmes kunnen de saaie taken overnemen. Enkel de momenten van inspiratie en vernieuwing zijn nog voor de mens. Maar creativiteit en vernieuwing vereisen vaak voorafgaandelijk repetitief werk. Denk aan de Romeinse opsplitsing tussen vertalen, nabootsen en overtreffen (translatio, imitatio en aemulatio). Het idee was dat een goede kunstenaar en bij extensie iedere andere onderzoeker alleen maar meesterschap kan bereiken door eerst te herhalen en te imiteren en dan te gaan creëren. Machinale en repetitieve handelingen zijn nodig voor echte creativiteit. Een gebrek aan goede basis vormt niet alleen een obstakel voor uitzonderlijke prestaties, maar ook het herkennen hiervan. Blind vertrouwen in GPT-3 kan leiden tot verlies van kennis en expertise. Wanneer enkel AI artikels of softwarecode schrijft, wie kan dan controleren of de inhoud ook klopt? Uit bovenstaande blijkt dat er achter GPT-3 toch menselijke keuzes schuilgaan. GPT-3 kan alleen iets produceren op basis van een door een mens gestelde vraag, waarin vaak al de creatieve combinatie zit (bijvoorbeeld: “Schrijf een samenvatting van het Belgisch regeerakkoord in de stijl van Lize Spit”). Goede vragen stellen vereist vertrouwdheid met de tool en kennis van het eindproduct. Dat werd goed geïllustreerd in een opiniestuk in The Guardian uit 2020, geschreven door GPT-3. In realiteit was dit nogal misleidend. De redacteurs geven immers toe dat het thema aan GPT-3 was opgelegd, en dat ze de beste stukken uit acht verschillende versies combineerden, want antwoorden op vragen gesteld aan GPT-3 zijn doorgaans weinig reproduceerbaar. Wanneer je nog eens een indrukwekkend voorbeeld van GPT-3 tegenkomt, denk daar dan aan: hoeveel mislukte, saaie of onzinnige pogingen gingen eraan vooraf, vooraleer de mens er de interessantste uitpikte? In die zin gaat GPT-3 schrijvers en programmeurs niet vervangen. Het is immers niet zelfstandig in staat om keuzes te maken over het doel van het schrijven, en of het eindproduct ook slaagt dat doel te bereiken. Het is de student die de keuze moet maken om GPT-3 hun essay te laten schrijven; en het is de leerkracht die uiteindelijk oordeelt of GPT-3 daarin geslaagd is. Het echte probleem is dus niet dat de mens buitengesloten wordt. De mens blijft keuzes maken. Wat wel een probleem kan worden is wie die originele keuzes maakt. Zelf een opiniestuk schrijven is eenvoudig. Maar de impliciete keuzes van waaruit een systeem zoals GPT-3 vertrekt hervormen, is lastiger. Hiervoor zijn veel trainingsdata en computertijd nodig, waarvoor je op een totale kost komt van zo’n 10 tot 20 miljoen dollar, en dan nog eens een paar dollarcents voor elke interactie met bijvoorbeeld ChatGPT. Even snel een alternatief voor GPT-3 ontwerpen dat niet discriminerend is, is niet voor iedereen weggelegd. Dus ook hier leveren we ons geleidelijk aan over aan Big Tech. De oplossingen De optimist gaat op bovenstaande problemen antwoorden: GPT-3 kan precies helpen als je niet creatief genoeg of niet weet welke vraag te stellen. Gebruik GPT-3 als dialoogpartner om dat uit te werken. Dat is een terechte tegenwerping die wijst op een realistisch toekomstscenario van GPT-3/4: het gaat de schrijver niet vervangen, maar er mee samenwerken. Iets analoog zagen we bij de opkomst van schaakcomputers of de indrukwekkende prestaties van AlphaGo. We zijn niet plots massaal gestopt met schaken of go. Integendeel, er zijn nu zelfs meer spelers dan vroeger. Zolang mensen er plezier, geld of reputatie uit kunnen halen, zal ook het schrijven normalerwijze niet verdwijnen. Bovendien zit het fascinerende vaak in de vergelijking. Zoals AlphaGo verrassende zetten kan doen in Go, zo kan GPT-3/4 ons eigen schrijven verrijken. Zo kennen we het verhaal van een hoger kaderlid die zijn onervaren collega’s in een brainstormsessie heeft ingeruild voor een vruchtbaarder gesprek met GPT-3. Toch maken docenten zich zorgen over GPT-3: wat betekent huiswerk nog als het algoritme al het werk kan doen? Plagiaat zou best de regel kunnen worden. Toch hoeft GPT-3 niet het einde van het huiswerk te zijn. Zo kunnen we GPT-3 en zijn opvolgers bijvoorbeeld verplichten een herkenningsteken in hun teksten te verbergen. Dat herkenningsteken hoeft niet voor mensen zichtbaar te zijn, enkel voor antiplagiaatsoftware. Maar de meest voor de hand liggende oplossing is wellicht dat GPT-3 ons moet doen nadenken over wat voor schrijven we werkelijk van onze kinderen en studenten willen. Misschien moeten repetitieve essays plaats maken voor alternatieve, creatieve oefeningen of opdrachten in de klas, waarbij de computer op slot gaat. De geschiedenis van de rekenmachine geeft diezelfde boodschap. Ook die maakte ooit furore in de klas, met bijhorende paniek over het einde van de wiskunde. In werkelijkheid is de wiskunde niet verdwenen, maar veranderd. Zoals de rekenmachine ons deed nadenken over wat we met rekenvaardigheden willen bereiken, biedt GPT-3 een gelijkaardige kans. Niet om de wereld te automatiseren, maar om te herdenken wat schrijven in onze maatschappij kan betekenen en hoe machines ons daarin kunnen versterken, zonder ons ronduit te gaan vervangen. Massimiliano Simons is Professor filosofie aan de Universiteit van Maastricht en medeoprichter van de Working Group on Philosophy of Technology (WGPT) aan de KU Leuven. Mauritz Kelchtermans schrijft aan een doctoraat over de ethiek van AI aan de KU Leuven, en is medeoprichter van de Working Group on Philosophy of Technology (WGPT) aan de KU Leuven. Knack, 09-12-2022 |
Alle tijden zijn GMT +2. De tijd is nu 20:05. |
Powered by: vBulletin Version 3.0.6
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.