Onderwerp: Deepfake
Enkele post bekijken
  #1  
Oud 15th September 2019, 02:48
bijlinda's Avatar
bijlinda bijlinda is offline
Administrator
 
Geregistreerd op: Nov 2004
Locatie: Hasselt
Posts: 1,816
Arrow Deepfake

Nu kan iedereen nepfoto's en -video's maken, en dat is best griezelig


Met de nieuwste apps kan iedereen nepfoto’s en -filmpjes maken. Niet meer van echt te onderscheiden. Hoe griezelig is dat?



Het is een beroemde scène uit ‘Titanic’: Leonardo DiCaprio staat op de voorsteven van het schip en spreidt zijn armen uit: ‘I’m the king of the world!’ Maar nu is het opeens de buurman die met de zeewind in zijn haren op de voorplecht staat. Het filmpje ziet er bloedstollend echt uit. Hoe krijgt de buurman dat voor elkaar? Bijvoorbeeld met hulp van Zao, een Chinese app die vorige week tijdelijk offline werd gehaald, omdat de privacyvoorwaarden niet op orde waren. Zao maakt gebruik van deepfake, een techniek waarmee iedereen verontrustend realistische nepfoto’s en -video’s kan produceren. Gewoon met z’n mobiele telefoon.

Dat kan vermakelijke, onschuldige filmpjes opleveren, zoals de nep-Titanicscène. Maar ook verwerpelijke. Want wat als de buurman jouw hoofd monteert in een oneerbaar filmpje en dreigt dat openbaar te maken? Cyberpesten, online chantage, oplichting, propaganda, ze vormen nu al een probleem, maar kunnen met deepfake nog veel ernstiger vormen aannemen. Het leven van een puber ligt in duigen na een glansrol in een neppornofilm.

Hoe griezelig is deepfake? Theo Gevers, hoogleraar Computer Vison aan de Universiteit van Amsterdam, bevestigt dat de techniek een bedreiging is. “Als je echt niet meer van nep kunt onderscheiden, kun je niet meer uitgaan van de waarheid. Dan heb je wel een probleem.” De beelden zijn zo geraffineerd, dat ze met het blote oog niet meer van echt zijn te onderscheiden. Het gaat verder dan een persiflage of verdraaide waarheid en is echt anders dan de technieken die we al kennen voor beeldbewerking, Photoshop verbleekt erbij. En de techniek erachter verbetert snel.

“Het afgelopen jaar heeft de deepfaketechniek een enorme vlucht genomen”, zegt Gevers. Hij doet onderzoek naar de bestaande methodes om deepfake te produceren en ontwikkelt met zijn team software om deze deepfakes te ontmaskeren. Deepfake wordt gemaakt met kunstmatige intelligentie, ook wel AI genoemd, en gaat uit van meerdere lagen in een beeld. Computers analyseren die lagen en leren zo hoe een gezicht of bewegingen worden gemaakt. De getrainde computer bedenkt vervolgens zelf een heel nieuw beeld.


Iedereen kan deepfake-video’s maken

Er zijn ongeveer twintig verschillende methodes voor het maken van deepfake-video’s, maar daar komen er snel meer bij. Grofweg zijn ze onder te verdelen in twee soorten: die waarbij een gezicht over dat van iemand anders wordt geplakt. En de methode waarbij een bestaand filmpje van iemand wordt gemanipuleerd. De techniek achter de eerste methode, bekend als faceswap, is de afgelopen maanden snel verbeterd. Je ziet het ook terug in apps waarmee je jezelf oud kunt maken.

Ongeveer twee jaar geleden verscheen de eerste app, waarmee je van twee gezichten één kon maken. Maar dat je echt niet meer met het blote oog kunt zien dat het om bewerkt beeld gaat, is iets van de laatste drie maanden. Dat is best een griezelige ontwikkeling, vindt ook Gevers. En dat iedereen het nu kan maken met zijn smartphone is zorgelijk. “Je hoeft geen nerd meer te zijn om zo’n video te maken, alle kinderen spelen met dit soort apps.”

Tot nu toe hebben deepfakes vooral een vermakelijk karakter, maar de techniek kan eenvoudig worden ingezet voor minder onschuldige doeleinden, zoals het beïnvloeden van verkiezingen of de publieke opinie. Moet deepfake niet worden verboden?

Gevers is niet voor een algemeen verbod, maar hij pleit wel voor meer transparantie. “Wat betreft discriminatie en portretrecht zijn de huidige wetten voldoende toegerust voor deepfake-video’s. Maar we moeten wel betere afspraken maken.” Op dit moment zijn mediabedrijven niet verplicht nepnieuwsberichten te verwijderen. Mensen kunnen melding maken van nepnieuws of deepfake en dan beoordeelt YouTube of Facebook of het bericht wordt verwijderd. “Vooral de handhaving van een algemeen verbod op nepnieuws is moeilijk. In verschillende landen denkt men erover de verspreiding ervan tegen te gaan door middel van wetgeving, maar de echte vraag is dan: wat is nepnieuws?”


Voor het opsporen van deepfakes zijn specialisten nodig

Dat opsporen kan het beste worden gedaan met behulp van computers, zegt Gevers. Hij vergelijkt het met een spamfilter dat je automatisch waarschuwt als een e-mail een virus bevat. Samen met zijn team ontwikkelt Gevers software, waarbij kunstmatige intelligentie deepfakes automatisch opspoort. “Het is net een kat-en-muisspel.”

Al meer dan honderd miljoen voorbeelden van deepfakes heeft hij beschikbaar om de kunstmatige intelligentie mee te trainen en die voorraad groeit rap. De grote media*bedrijven ontwikkelen zelf ook software waarmee nepvideo’s kunnen worden opgespoord, maar Gevers pleit voor onafhankelijke software, die valt te controleren.

Volgens Gevers is het tijd dat de Nederlandse overheid actie onderneemt. “We hebben specialisten nodig. Het is een heel groot probleem en maar weinig mensen hebben de juiste kennis om systemen te bouwen voor het opsporen van deepfakes.” Hij voorspelt dat we aan de vooravond staan van iets groots. “We moeten hier wel wat aan doen en bij voorkeur in Nederland. Je wil dit niet door Chinezen laten doen of door Facebook. Als we geen actie willen ondernemen, dan zijn er helaas consequenties. Men is gewaarschuwd.”


Alleen de stem blijft nog zo persoonlijk als een vingerafdruk

Gevers verwacht dat in de komende zes tot twaalf maanden de technieken voor deepfakes zo ver worden doorontwikkeld dat ook filmpjes waarbij mensen helemaal worden gemanipuleerd niet meer van echt zijn te onderscheiden. Met die techniek wordt niet alleen het hoofd vervangen, maar kunnen ook armen, benen, mond en mimiek direct worden aangestuurd door iemand anders.

Alleen de stem blijft voorlopig nog zo persoonlijk als een vingerafdruk. Iemand met zijn eigen stem dingen laten zeggen die hij nooit heeft gezegd, blijft een technische uitdaging. Het is al mogelijk om zinnen aan te passen zonder dat het opvalt, door er een woord in te voegen of juist uit weg te laten. Maar achter elkaar geplakte woorden klinken nog altijd robotachtig, vergelijkbaar met de stem van autonavigatie. Gevers voorspelt dat dit de lastigste hobbel is en dat het nog wel een jaar of twee duurt, voordat ook dat niet meer met het blote oor te horen is.


Bekende deepfakes

Een filmpje van komiek Jordan Peele, die Barack Obama rare dingen laat zeggen, kwam twee jaar geleden in het nieuws als een van de eerste deepfake-video’s. De video was geloofwaardig, omdat Peele Obama’s stem bijna exact kan imiteren. Toch had die film nog wel enige bewerking achteraf nodig.

Een maand of drie geleden verscheen FaceApp, de app voor smartphones, waarmee je je eigen gezicht oud kunt laten lijken. De app kwam in opspraak wegens het schenden van privacy en maakt gebruik van de deepfake-techiek. Er wordt een heel nieuw gezicht gebouwd op basis van kunstmatige intelligentie.

Onlangs zat de Amerikaanse komiek en acteur Bill Hader aan tafel bij David Letterman in ‘Saturday Night Live’. Daar deed hij een imitatie van Tom Cruise, waarbij Haders gezicht live veranderde in dat van Cruise. Het was zo griezelig goed gedaan dat het filmpje viraal ging.


Nep op verschillende niveaus

Bij deepfake worden beelden eerst in verschillende lagen geanalyseerd. Er wordt gekeken naar eigenschappen als belichting, beweging, mimiek, huidstructuur, kleur en schaduwen. Kunstmatige intelligentie leert van die gegevens hoe een gezicht of een beweging eruitziet en schept op basis daarvan een nieuw beeld. Het zijn dus niet twee gezichten die op elkaar worden geplakt, maar het is een heel nieuw, fictief gezicht bedacht door de computer. Omdat er geen bestaande plaatjes worden gebruikt, zijn er minder of geen foutjes te zien. Schaduwpartijen, rimpel- en huidstructuur zijn realistischer dan bij bewerkte plaatjes.


Trouw, 12-09-2019 (Nienke Schipper)
https://www.trouw.nl/cultuur-media/...4c22a330a0b2dd4
Met citaat antwoorden