![]() |
ASI-verbod
Verbied artificiële superintelligentie, nu ze nog niet bestaat. Anders zijn we een vogel voor de kat
Als artificiële superintelligentie zichzelf onbeperkt kan kopiëren en verspreiden, verliezen we de mogelijkheid om in te grijpen in het systeem, schrijft Lode Lauwaert. Dan zijn we een vogel voor de kat. Deze week werd een oproep verspreid voor een internationaal verbod op superintelligentie. Die werd intussen ondertekend door ongeveer 30.000 mensen. Onder hen Nobelprijswinnaar Geoffrey Hinton, futuroloog Yuval Noah Harari en Yosgua Bengio, de vaakst geciteerde AI-onderzoeker ter wereld. Ik zette ook mijn handtekening. Zeker, AI heeft veel voordelen, maar we zijn ons te weinig bewust van de gevaren die vasthangen aan artificiële superintelligentie (ASI). Dat is een technologie die zowat alle cognitieve taken van mensen kan overnemen: van wetenschappelijke ontdekkingen over een bedrijf leiden tot teksten schrijven. En die taken kan het vele keren beter uitvoeren dan de gemiddelde mens en zelfs beter dan experts. Dat is niet verwonderlijk. Want terwijl de briljantste wetenschapper maar een fractie van alle kennis kan bevatten, kan superintelligentie alle bestaande wetenschappelijke publicaties lezen, onthouden en er verbanden tussen leggen. En dat miljoenen keren sneller dan het menselijke brein. Het kan problemen die de mensheid jaren kosten in fracties van seconden oplossen. Met behulp van AI kunnen we nu al nieuwe vaccins en antibiotica ontwikkelen. Maar met diezelfde technologie kunnen we ook fake news verspreiden, bevolkingsgroepen surveilleren en nieuwe virussen ontwikkelen. Aangezien al die zaken al kunnen met bestaande slimme technologie, is het logisch dat superintelligente technologie nog veel meer en veel grotere schade kan aanrichten door nepnieuws, surveillance en virussen. Het systeem zou daarvoor gebruik kunnen maken van de sociale vaardigheden die het in veel sterkere mate dan mensen bezit: liegen, manipuleren en chanteren. Dat is niet bij de haren getrokken. In een bekend experiment van AI-bedrijf Anthropic ontdekte het systeem een buitenechtelijke relatie in de e-mails van zijn ontwerpers en dreigde die publiek te maken als men het zou afzetten. Uit een ander experiment is gebleken dat systemen hun eigen vaardigheden kunnen verdoezelen. Ze doen zich minder slim voor dan ze zijn. Het gevaar wordt acuter als dat gekoppeld wordt aan zelfreplicatie. Dat vermogen schrijven we doorgaans alleen toe aan organismen, maar werd al, hoewel rudimentair, geobserveerd in onderzoek naar bestaande taalmodellen. Als superintelligentie zichzelf onbeperkt kan kopiëren en verspreiden, verliezen we de mogelijkheid om in te grijpen in het systeem. We hoeven niet aan mensen met slechte bedoelingen te denken om te begrijpen dat superintelligentie erg risicovol is. Het is erg moeilijk om een AI-systeem af te stemmen op wat we als samenleving belangrijk vinden. Het gevaar is dat we een AI-systeem een doel geven dat het te letterlijk opvolgt, dat het een waarde anders dan bedoeld interpreteert of dat het wegen vindt om de opgelegde regels te omzeilen. Neem dit herkenbare voorbeeld. We geven een AI-systeem de taak om maximale efficiëntie te bereiken op het werk. Om die taak perfect uit te voeren, zou AI kunnen besluiten om ongeplande pauzes, discussies of meetings te elimineren omdat die de output verminderen. Het resultaat is een hyperefficiënt, maar onmenselijk werkklimaat dat waarden als welzijn en autonomie bedreigt. De uitdaging is daarom om onze complexe waarden waterdicht in de code te verankeren, zeker als het gaat over superintelligente technologie die we vrijlaten om doelen te realiseren. Maar technologie perfect afstemmen op onze waarden is precies een van de grootste uitdagingen voor het AI-onderzoek. Voor alle duidelijkheid: superintelligentie bestaat niet. En misschien zal het nooit bestaan. Maar de rijkste mensen en grootste AI-bedrijven werken er wel aan. “We weten nu hoe we AGI moeten bouwen”, zei Sam Altman, de ceo van OpenAI. “We richten de blik stilaan verder, naar superintelligentie in de ware zin van het woord.” Ook Meta-baas Mark Zuckerberg heeft onlangs de ambitie uitgesproken om naar superintelligentie te streven. In juni 2025 werd Meta Superintelligence Labs opgericht. Dat wil natuurlijk niet zeggen dat de technologie er zal komen. Maar er zijn redenen om te vermoeden dat big tech in haar opzet zal slagen. In nog geen tien tijd jaar tijd zijn onderzoekers erin geslaagd AI-systemen te maken die elk op hun domein mensen overtreffen. De mens is er de voorbije honderd jaar in geslaagd om de meest ingenieuze zaken uit te vinden: vliegtuigen, kernreactoren, computers, raketten, technologie om mensen te klonen, enzovoort. En wat als we AI gebruiken om AI te verbeteren? AlphaEvolve, een nieuw AI-systeem van Google DeepMind, richt zich op de optimalisatie van zichzelf. Dat heeft ertoe geleid dat het de code van de Gemini-modellen van Google sterk kon optimaliseren. Bijna de helft van AI-antwoorden over nieuws bevat fouten De app van ChatGPT: niet echt betrouwbaar als nieuwsbron. Ook toponderzoekers geloven dat superintelligentie er komt. AI-pioniers Hinton en Bengio verwachten beiden superintelligentie binnen amper vijf jaar. De AI impacts survey van 2023, de grootste enquête onder AI-onderzoekers tot nu toe, bevestigt die inschatting: 53 procent van de respondenten denkt dat een intelligentie-explosie een waarschijnlijkheid van 50 procent heeft. Die onderzoekers kunnen natuurlijk te optimistisch zijn, maar ze hebben wel de kennis die nodig is om er goede voorspellingen over te maken. We moeten een tweesporenbeleid voeren. We moeten hard investeren in AI voor pakweg biomedische doelen of klimaatonderzoek. Maar we hebben daarvoor geen technologie nodig die alles in de overtreffende trap kan, en dus ook zeer goed kan liegen en manipuleren. Er moet dus een wereldwijd verbod komen op het onderzoek naar en de ontwikkeling van superintelligente technologie. Zo’n verbod vereist een bindend internationaal verdrag, een onafhankelijk inspectieorgaan (naar analogie met het Internationaal Atoomenergieagentschap) en technische limieten om de groei van AI te stoppen. Ten eerste via softwarebeperking: het systeem kan de fundamentele veiligheidscode niet wijzigen. Ten tweede via een harde grens in de hardware: speciale chips worden ontworpen die de fysieke uitvoering van een code voor zelfreplicatie weigeren. Ik besef natuurlijk dat zo’n verbod op praktische problemen botst, maar dat betekent niet dat het onmogelijk is. En laat ook de geschiedenis een reden zijn om hoopvol te zijn. In het verleden waren grote gevaren vaak voldoende om een technologie te willen verbieden – denk aan chemische wapens, menselijk klonen, antipersoonsmijnen, kernwapens en crispr voor erfelijke genoommodificatie. Als die technologieën ooit werden verboden, is het dan nog onrealistisch dat er een verbod komt op zelfreplicerende superintelligentie die mogelijk grote onwenselijke gevolgen zal hebben voor de generaties na ons? Lode Lauwaert, professor techniekfilosofie (KU Leuven) Blog DS, 24-10-2025 |
| Alle tijden zijn GMT +2. De tijd is nu 22:27. |
Powered by: vBulletin Version 3.8.14 by DRC
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.