Sinds mijn rapport "Echt nep — van virtuele beroemdheden naar digitale mensen” (juli 2018) en ons onderzoek naar The Synthetic Generation” (februari 2019) volg ik de ontwikkelingen omtrent synthetische media en met name die van deepfake technologieën op de voet. Lees ook ons recente opinieartikel Deepfakes zijn een groeiend gevaar voor onze democratie” in het Financieel Dagblad (juni 2019).

Wat is een Deepfake?

Met een Deepfake video wordt bedoeld dat met behulp van kunstmatige intelligentie het gezicht van iemands digitale evenbeeld kan worden gemanipuleerd, door bijvoorbeeld het digitaal te verouderen of een ander gezicht op een lichaam te knippen en te plakken. Vaak heeft dit hilarische video’s tot gevolg. Zoals Nicolas Cage die opeens de hoofdrol speelt in allerlei films waarin hij nooit geacteerd heeft. Of de video van Bill Hader die tijdens een imitatie van Tom Cruise opeens in Tom Cruise verandert. Helaas zitten er ook negatieve kanten aan deze technologie. Zo kwam voormalig nieuwslezers Dionne Stax deze week zelf in het nieuws omdat er een seksvideo van haar op PornHub stond. Overduidelijk niet echt, maar toch kwamen een handvol bezoekers aan hun trekken.

Tot op heden werden Deepfake video’s gemaakt met behulp van zogeheten Generative Adverserial Networks (GAN). Dit zijn twee neurale netwerken die met elkaar discussiëren over wat echt is en wat niet. Beide netwerken beschikken over dezelfde trainingsvoorbeelden. Het ene netwerk, de Generator, probeert op basis van deze voorbeelden, zelfstandig kopieën te maken. Het andere netwerk, de Discriminator, toetst de echtheid van de gegenereerde proeven tegen de bestaande gegevensverzameling. De één probeert de ander dus voor de gek te houden en de ander wil daar juist niet intrappen. Zie het als een kunstvervalser die voortdurend een kunstdetective met zijn nieuwste kunstwerk probeert te misleiden. In dit proces van hoor en wederhoor geven de beide netwerken elkaar voortdurend feedback tot beide netwerken het met elkaar eens zijn dat de kopie niet van echt te onderscheiden (en daarmee origineel is) en aan de oorspronkelijke dataset mag worden toegevoegd. Het is een uiterst succesvol voorbeeld van leren zonder supervisie.

 

Het aantal toepassingen op basis van GAN technologie is in de afgelopen paar jaar geëxplodeerd. Zo zijn er GAN’s die anime karakters produceren, die hbepaalde poses voor modellen genereren, die schilderstijlen van het ene domein op het andere domein toepassen, mode ontwerpen, foto’s met een lage resolutie kunnen omtoveren in foto’s met hoge resolutie, lege plekken in foto’s kunnen opvullen, tekst kunnen omzetten in beelden en gezichten kunnen verouderen. Deze competitieve netwerken kunnen zelfs complete appartementen inrichten. Zo heeft iemand de website https://thisrentaldoesnotexist.com/ opgericht waarbij het lijkt alsof je appartementen op Airbnb aan het bekijken bent, maar in werkelijkheid is alles wat je ziet hartstikke nep en door een neuraal netwerk gecreëerd.

Zelf een Deepfake maken

Tot voorheen was het terrein van GAN technologie alleen voor AI ontwikkelaars en academici weggelegd. Met de komst van allerlei nieuwe tools komen de mogelijkheden van deepfake technologie voor iedereen binnen handbereik. Een goed voorbeeld hiervan is FaceApp waarmee je een oudere of jongere versie van jezelf kunt genereren. Of zelfs van geslacht kunt veranderen.

Zelf ben ik de afgelopen week samen met collega EbSynth aan de slag gegaan. Deze is gratis te downloaden en een uitgebreide uitleg van deze app kun je op YouTube bekijken. Met deze tool kun je een bepaalde stijl aan een film voegen. Het enige wat je hoeft te doen is een frame uit de oorspronkelijk film te selecteren, deze aan te passen conform de stijl die je wilt hebben, en vervolgens laat je de app aan de hand van deze frame alle andere frames aanpassen. En de resultaten zijn verbluffend voor een applicatie van zo’n 8Mb groot.

Het eerste wat ik deed was een fragment uit het programma Jinek Live knippen om vervolgens een frame met daarin Eva Jinek zelf te bewerken. Ik besloot om Eva te verouderen. De frame (oftewel een enkele foto uit de film) bewerkte ik met FaceApp en vervolgens gebruikte ik EbSynth om het gehele fragment aan deze frame aan te passen. Het resultaat zie je hieronder. Het filmpje dat ik gebruikte duurt slechts 7 seconden en bevatte zo’n 140 frames. Mijn Macbook Pro had er ongeveer een uur voor nodig om de verouderde Jinek te genereren.

Vervolgens ging ik aan de slag met een fragment waarin Matthijs Nieuwkerk en Eva Jinek naast elkaar zaten. Matthijs maakte ik jonger en Eva maakte ik wederom ouder. Het resultaat kun je hieronder zien.

Tot slot nog een video van gemaakt waarin ik mijn eigen gezicht heb geswapt. Als bronmateriaal gebruikte ik een http://www.w3.org/2000/svg\">"); background-size: 1px 1px; background-position: 0px calc(1em + 1px);">recent Instagram filmpje van Katja Schuurman. Ook hier slechts 1 keyframe gebruikt en de instellingen van Ebsynth op default laten staan. Mijn verwachting is dat ik de kwaliteit hoger krijg als ik met deze instellingen ga spelen.

Zelf een Deepnude maken

Tot slot wilde ik weten of het ook mogelijk was om een Deepnude te maken. Hiervoor misbruikte ik oude beelden van Yvonne Jaspers. Op haar plakte ik twee borsten van een willekeurig naaktmodel. Het eindresultaat was primitief, maar het werkte. Zelfs haar handen, die ze even langs haar lichaam bewoog, verstoorden het gemanipuleerde beeld niet. Ook het Instagram filmpje van Katja Schuurman bewerkte ik, hier plakte ik haar eigen borsten uit de Playboy op en het resultaat was verbluffend. Zelfs met getekende borsten werkt het. Je ziet duidelijk dat het filmpje niet echt is, maar geef de tool nog wat ontwikkelingstijd en een kind kan de was doen.

 

Hardcore nerds zullen duiden dat het hier om een shallowfake, gaat en niet om een deepfake. Punt is dat je voor het creëren van deepfakes helemaal geen deepfake technologie meer nodig hebt. Het kan straks zelfs realtime. Het maken van een Deepfake porno is net zo makkelijk als het gebruiken van een Instagram filter. Relaties zullen sneuvelen, mensen zullen gechanteerd worden en de slachtoffers van deze technologie zullen met name vrouwen zijn.

Deepfake voor stemmen

Deepfake technologie hoeft niet alleen gebruikt te worden voor beelden, het kan ook ingezet worden om iemands stem na te bootsen. Dit overkwam recentelijk Jordan Peterson, hoogleraar psychologie in Toronto, YouTube-grootheid en auteur van het zelfhulpboek 12 regels voor het leven. Als gevolg van zijn werk is zijn stem overal op het internet terug te vinden. Het bedrijf Coding Elite maakte hier al eens dankbaar gebruik van door een vocal avatar van zijn stem te maken en hem het nummer Lose Yourself van Eminem te laten rappen. Deze week werd de website notjardanpeterson.com in het leven geroepen, waarbij iedereen een tekst kon intikken, om vervolgens de stem van Peterson te horen die de tekst voorlas. Niet van echt te onderscheiden. De grap veranderde al snel in treiterij. Gebruikers lieten hem de meest vreselijke dingen zeggen. In een opinieartikel maakte de echte Peterson het punt dat we serieus moeten overwegen dat “iemands stem een integraal onderdeel is van zijn identiteit, van zijn realiteit, van zijn persoon — en dat het stelen van die stem een criminele daad is, ongeacht de intentie.” Dat de achterliggende bedoeling niet altijd goed is, blijkt ook uit de waarschuwing van online beveiligingsbedrijf Symantec. Zij kennen drie gevallen waarbij deepfake audio van CEO’s werd gebruikt om accountants te overtuigen om geld over te maken.

Conclusie

Het internet levert een bonte verzameling aan feiten, filters, meningen, verzinsels en samenzweringstheorieën op waarbij opinies, emoties en onderbuikgevoelens belangrijker zijn dan feiten en ratio. Nu scheppen we met deepfake technologie een wereld waarin we onze ogen en oren niet langer kunnen vertrouwen. Het grote gevaar is niet zozeer dat de leugen tot waarheid wordt verheven, maar dat de geloofwaardigheid van de waarheid wordt aangetast. Als we een toekomst tegemoet gaan waarin alles en iedereen kan worden nagemaakt en nagebootst, dan is niets meer echt, alles kan immers als een leugen of nep nieuws worden afgedaan. Wie of wat moeten we dan nog vertrouwen?

Recent onderzoek van Pew Research toont aan dat tweederde van de ondervraagde Amerikanen gemanipuleerde beelden en video’s als een groot probleem ervaren om de basisfeiten achter actuele gebeurtenissen te begrijpen. Meer dan een derde zegt dat “verzonnen nieuws” hen ertoe heeft gebracht om de hoeveelheid nieuws die ze in het algemeen consumeren te verminderen. Ze hebben een apathie voor de realiteit ontwikkeld. We verlaten hiermee het post-truth tijdperk en komen terecht in dat van de post-realiteit. De fundamenten van onze samenleving komen hiermee onder druk te staan, deze is immers gebaseerd op één gedeelde versie van de werkelijkheid en met deze technologie heeft iedereen de mogelijkheid om zijn eigen versie van de realiteit te creëren.

Bron: https://medium.com/@sanderduivestein