|
|
Onderwerp Opties | Zoek in onderwerp | Waardeer Onderwerp | Weergave Modus |
#1
|
||||
|
||||
Artificiële intelligentie doet ons de waarheid wantrouwen
Is Kate fake? Artificiële intelligentie doet ons de waarheid wantrouwen
De kracht van artificiële intelligentie leidt tot gezonde argwaan. Maar wat als we de waarheid zelf daardoor niet meer geloven? De complottheorieën rond Kate Middleton illustreren de informatiedystopie. “De algehele onzekerheid maakt het makkelijker om aan krankzinnige ideeën vast te houden.” Daar was de prinses van Wales dan. Na bijna drie maanden van complottheorieën en internetgrappen getuigde Kate Middleton vorige week over haar kankerdiagnose. Ze was sinds december niet meer in het openbaar gezien en dat was voer voor de wildste speculaties. Had de prinses plastische chirurgie gehad? Hadden zij en prins William misschien ruzie? Of had William zijn vrouw vermoord? Om de geruchten de kop in te drukken publiceerde het paleis een familieportret van de prinses met haar kinderen, dat gemanipuleerd bleek. Samen met Middletons excuses - “zoals veel amateurfotografen experimenteer ik af en toe met fotobewerking” – deed dat de samenzweringstheorieën alleen maar toenemen. De prinses reageerde vorige week vrijdag met een videoboodschap (zie hierboven) van twee minuten en vijftien seconden. Daarin gaf ze de verklaring voor haar afwezigheid: tijdens een operatie was kanker vastgesteld. Dat had Middleton graag privé verwerkt met haar man en drie kinderen, maar dat was haar niet gegund. De gulzige zoektocht naar de waarheid was onhoudbaar geworden. De Britse pers betaalde inmiddels tienduizenden ponden voor korrelige beelden van de kroonprinses. Dus vroeg Middleton, tegenover een camera van de BBC, op een bankje in een koninklijke tuin om begrip: “Het heeft ons tijd gekost om dit alles uit te leggen aan onze kinderen op een manier die ze begrijpen, en om hen gerust te stellen dat alles goed komt met mij.” Daarmee was de kous af voor de Britse pers. De geruchtenmolen kon stoppen. Maar op sociale media woekerde het wantrouwen hijgerig verder. Talloze posts op Tiktok en X analyseerden het filmpje aan stukken. De ogen van de prinses zouden op een bepaald moment verspringen, haar ring zou even verdwijnen. En was het gras niet te groen voor deze tijd van het jaar? Een Amerikaanse vrouw vond tussen duizenden video’s van Middleton op het internet een filmpje uit 2016 waarin de prinses een gelijkaardige streepjestrui droeg. Dat kon geen toeval zijn. Middletons getuigenis over haar kankerdiagnose moest wel gemaakt zijn met artificiële intelligentie. Onbestaande kinderen Al jaren waarschuwen experts voor deepfakes: desinformatie die nauwelijks te onderscheiden valt van de werkelijkheid. Het World Economic Forum zet desinformatie dit jaar zelfs bovenaan in zijn Global Risks Report, een lijst van gevaren voor de wereld. Ze is dus gevaarlijker dan extreem weer, pande*mieën en oorlogen. Stilaan dringt AI elk aspect van ons leven binnen. Nepversies van Taylor Swift, Tom Hanks en Oprah Winfreypromoten de laatste Le Creuset-pan, een louche tandartsbehandeling of manieren om je rijkdom “te manifesteren”. Echte mensen die van niets weten, lang niet alleen beroemdheden, duiken op in vervalste filmpjes op pornosites. De deepfakes zijn niet eens altijd slecht bedoeld. In januari postte een Vlaamse activiste een met AI gemaakte nepfoto op X van onbestaande Joodse kinderen, nota bene bij een oproep om de Holocaust beter te bestuderen in het onderwijs. “Twijfelde tussen een historische zwart-witfoto en deze”, schreef de vrouw als reactie op de kritiek. De technologie evolueert razendsnel. In 2018 haalde het geblunder van de Vlaamse sociaaldemocraten met een deepfake van Donald Trump nog The Guardian. Tot verbazing van de toenmalige SP.A hadden heel wat volgers niet begrepen dat het om een ludiek bedoelde nepvideo ging. Vandaag zijn – veel geloofwaardigere – deepfakes overal. Volgens The New York Times is 2024 een cruciaal jaar. Vier miljard mensen in 84 landen trekken naar de stembus, terwijl de regulering en technologie om AI-beïnvloeding aan banden te leggen nog niet op punt staan. Hoe groot de impact daarvan kan zijn, zagen we in februari in Pakistan. Oud-president Imran Khan won er de verkiezingen vanuit de gevangenis, dankzij nepvideo’s waarin hij ‘speecht’ met behulp van AI. In zo’n wereld is het aantrekkelijk om te pleiten voor een stevige dosis wantrouwen. De Nationale Veiligheidsraad van België kondigde deze week een taskforce aan tegen desinformatie uit China en Rusland. In één adem beloofde de Veiligheidsraad ook aan “sensibilisering” te doen. Morele paniek Heel wat onderzoekers vrezen echter dat juist in de reactie op de technologie meer gevaar schuilt dan in AI zelf. Het gecultiveerde wantrouwen over deepfakes zou weleens meer schade kunnen aanrichten dan de deepfakes zelf. “Je hoeft geen nepvideo te maken om met AI-tools een serieuze impact te hebben”, waarschuwde Renee DiResta al in 2018 op BuzzFeed. DiResta is onderzoeker aan het Stanford Internet Observatory en geldt als een belangrijke expert op het vlak van desinformatie in de wereld. “Je moet alleen maar wijzen op het feit dat de technologie bestaat. Daarmee kun je de integriteit van dingen die wel echt zijn in twijfel trekken.” Dat is precies wat we in de complotten rond Middleton zien gebeuren. Louter het feit dat AI bestaat, is voldoende om miljoenen kijkers op Tiktok te doen twijfelen aan haar kankerdiagnose. “Ik vind het angstaanjagend dat we in een wereld leven waarin AI zo goed is geworden dat we niet meer weten wat waar is”, aldus tiktokker Joysparkleshine, die miljoenen views haalde met complotfilmpjes over Middletons “kankervideo”. Het onderzoeksplatform Valent Projects ontdekte deze week dat minstens veertien pro-Kremlinaccounts, met samengeteld acht miljoen volgers, de voorbije week theorieën lanceerden waarin ze Middletons video linkten aan AI en haar ziekte koppelden aan coronavaccins. Ook Nathalie Van Raemdonck, doctoraatsonderzoeker aan de VUB, waarschuwt voor morele paniek rond deepfakes. “Hoe meer je het probleem van AI-desinformatie opblaast, hoe meer mensen dat probleem overal zullen zien.” Wat iemand gelooft, hangt meer af van de bereidheid om iets te geloven dan van de geloofwaardigheid van de technologie zelf, stelt ze. “Onderzoekers spreken van motivated reasoning. Politici kunnen zeer slecht gefotoshopte beelden verspreiden, en toch lijkt hun achterban daar nog in te trappen. En wanneer die mensen erop gewezen worden, zeggen ze: het had waar kunnen zijn.” Als Filip Dewinter (Vlaams Belang) dus een video deelt van jongeren met een migratieachtergrond die een wit jongetje in elkaar trappen, dan maakt het voor zijn achterban weinig uit of die beelden met AI werden gemaakt, of ze zeven jaar geleden in Zweden werden gemaakt of daadwerkelijk onlangs in Vlaanderen werden gefilmd. “Onderzoek wijst uit dat slechts een klein percentage van de bevolking in een echte informatiebubbel zit. Zij worden voortdurend aan dezelfde desinformatie blootgesteld”, zegt Van Raemdonck. Dat relativeert de “miljoenen views” die zulke filmpjes vaak halen, zegt ze. “Veel mensen zien ze wel passeren, maar vaak is het slechts een van de vele dingen die ze op een dag zien. Het is niet volkomen onschadelijk, maar we mogen de impact wel nuanceren.” De technologie mag dan wel beter worden, deepfakes maken waar “veel meer mensen gedurende een lange tijd in trappen vereist nog steeds menselijke interventie”, zegt Siwei Lyu in The Atlantic. Hij is expert desinformatie aan de Universiteit van Buffalo. Voor een echt ontwrichtende deepfake moet “de mens nog steeds tussenbeide komen in elk stapje van het maakproces: de data nakijken, het AI-model verbeteren en de fouten van de computer manueel rechtzetten”. Dat verklaart waarom we de meest ontwrichtende deepfakes, waarvoor al sinds 2018 wordt gewaarschuwd, nog niet hebben gezien. Voorlopig was geen enkele nepvideo geloofwaardig genoeg om een oorlog, rellen of een revolutie te ontketenen. Georkestreerd Natuurlijk is er ook de kracht van de beelden zelf en wordt AI razendsnel geloofwaardiger. In haar beroemde boek On photography (1977) schreef de Amerikaanse essayiste Susan Sontag al dat we niet kunnen ontsnappen aan de directheid van beelden. Meer dan feiten raken ze onze emoties. Bovendien impliceren “zogenaamd realistische” beelden altijd, schreef Sontag, “dat de werkelijkheid verborgen is. En iets dat verborgen wordt, is iets dat onthuld moet worden.” Nieuwe technologie maakt dat proces nog subtieler en werkt het algemene wantrouwen dat mensen ervaren bij een stroom aan beelden nog in de hand. Niet voor niets tieren de complotten zo welig over de kankerdiagnose van Kate Middleton. Geen koningshuis ter wereld werkt zo georkestreerd en is tegelijk zo gemediatiseerd als het Britse. Maar er is meer aan de hand dan een zoveelste rondje samenzweringen over Buckingham Palace. “De afgelopen jaren zijn mensen niet alleen de koninklijke familie gaan wantrouwen, maar ook de reporters die verslag over hen doen”, zegt royaltyjournalist Ellie Hall in Nieman Lab. Voor een verklaring wijst ze naar het drama rond Harry en Meghan en naar The crown. Zowel de quotes van het koppel als de gefictionaliseerde Netflix-serie werkten het beeld van een machiavellistische organisatie verder in de hand. “Als ze het instituut niet meer vertrouwen, gaan mensen steeds meer af op wat ze kunnen zien”, aldus Hall. Nationalisme In die zin is het debacle over Middletons video een microkosmos van wat in de maatschappij plaatsvindt. Het gemiddelde vertrouwen van burgers uit Oeso-landen in de overheid (41 procent), de media (39 procent) en politieke partijen (24 procent) bereikte in 2021 een historisch dieptepunt. De komst van generatieve AI werkt als een deeltjesversneller op al dat onbehagen, ‘buikgevoel’ en wantrouwen. Zo komen we ook in het Westen steeds meer terecht in de wereld van Niets is waar en alles is mogelijk, het boek van de Russische schrijver Peter Pomerantsev uit 2014. Hij had het over het 21ste-eeuwse Rusland van Vladimir Poetin, waar het gedeelde vertrouwen in de werkelijkheid doelbewust werd ontmanteld. Hoe toxisch zo’n klimaat voor de samenleving is, wist George Orwell al. In Over nationalisme (1945) schrijft de Britse denker: “Onverschilligheid over de objectieve waarheid wordt aangemoedigd door het afsluiten van een deel van de wereld van het andere, waardoor het steeds moeilijker wordt te achterhalen wat er werkelijk gebeurt.” Dat is volgens Orwell een vruchtbare bodem voor nationalisten en iedereen die de democratie wil ondermijnen. “De algehele onzekerheid over wat er daadwerkelijk gebeurt, maakt het makkelijker om aan krankzinnige ideeën vast te houden. Omdat niets echt bewezen of ontkracht wordt, kan zelfs het meest onmiskenbare feit schaamteloos worden ontkend.” DS, 30-03-2024 (Kasper Goethals) |