Deepfakes wat zijn dat en hoe lang bestaat dat fenomeen al?

Filed in NIEUWS ANALYSES by on 26 juni 2019 1 Comment

bron: medium.com

Veelvuldig heb ik hier de technieken besproken waarmee deepfake personages gecreëerd kunnen worden. Voor de nieuwe lezers herhaal ik dat hier graag nog even in iets meer detail in een speciaal aan dit onderwerp toegewijd artikel. Als u namelijk dagelijks het nieuws volgt, is het uitermate belangrijk dat u kennis van dit onderwerp neemt, omdat u zult zien welke technieken er bestaan om eenvoudig het volk te bespelen. Zeer eenvoudig.

Deepfakes worden gemaakt middels GAN (Generative Adversarial Networks) softwaretechnieken. Dat is kunstmatige intelligente software die, uit het niets, gebaseerd op meerdere AI systemen in een netwerk, personages creëert. AI is Engels voor Artificial Intelligence; wat staat voor kunstmatige intelligentie. Een ander AI netwerk test vervolgens de door het eerste netwerk gecreëerde beelden en wijst ze af of keurt ze goed. Door dit in een cyclus te doen worden de personages met iedere stap realistischer, waardoor je uiteindelijk compleet fictieve personen kunt genereren die op gewone alledaagse mensen (die je zo maar op straat tegen zou kunnen komen) lijken. Wilt u exact weten hoe dit werkt, kijk dan eerst even onderstaande video van NVIDIA (de bekende grafische kaart producent voor pc’s).

Het is niet alleen nuttig om te weten dat deze deepfake techniek bestaat, maar ook op welke manier een deepfake personage gebruikt kan worden in bijvoorbeeld filmpjes of voor het genereren van social media profielen (inclusief een hele voorgeschiedenis; inclusief foto’s en filmpjes en likes van andere deepfake social media profielen). Zo kunnen social media discussies online eenvoudig bewaakt worden door “thuiswerkers” of medewerkers van bijvoorbeeld een telemarketingbureau, waarbij de personages met wie u discussieert zich mogelijk verschuilen achter zo’n deepfake profiel (waarvan het vriendennetwerk ook weer gevuld is met deepfake profielen). Zij kunnen mensen op hun tijdlijn aanvallen in discussies om zo het sentiment onder het volk in een bepaalde richting te sturen.

Laten we alle toepassingsmogelijkheden eens bekijken, maar voordat we daar aan beginnen is het nuttig om te weten dat de game en filmindustrie, maar ook tv-producenten al veel langer over dergelijke technieken beschikken. Echter wordt het werk nu dusdanig vereenvoudigd dat je het op een huis-tuin-en-keuken pc zelf kunt.

Toen Paul Walker halverwege de opnames Fast and Furious 7 overleed, werd het bedrijf Weta Digital ingeschakeld om de verfilming van Paul Walker te voltooien. Op basis van een combinatie van methoden zoals oude beelden, body scans van Paul’s broers en digitalisering van Pauls hoofd, wist Weta Digital Paul Walker weer tot leven te wekken. Onderstaand filmpje geeft een  samenvatting van hoe dit werkte.

Al jaren bestaat de 3D motion capture techniek waarbij acteurs pakken dragen om hun bewegingen vast te leggen om er vervolgens via CGI (digitaal) gecreëerde personages overheen te leggen. Dat is vergelijkbaar met de techniek die voor Paul Walker werd gebruikt, alleen dan met levende acteurs die een motion capture pak dragen. Ook die techniek is nu beschikbaar voor mensen met een laag budget (zie onderstaande video), maar een goed voorbeeld van een film waarin deze techniek al werd gebruikt is de film Avatar uit 2009 (zie hier).

NVIDIA heeft het gebruik van deze pakken en CGI techniek feitelijk al ingehaald, omdat zij gebruik maakt van neural networks om de software te trainen. Feitelijk is dit dezelfde techniek die achter de deepfake gezichten schuil gaat. NVIDIA is inmiddels niet alleen in staat om dus niet-bestaande-gezichten te genereren, maar kan met een camera door een stad rijden en er (real time) een winter landschap van maken. Dergelijke technieken kunnen bijvoorbeeld worden gebruikt om de AI software van zelfrijdende auto’s te trainen op wisselende weersomstandigheden, maar ze kunnen ook worden gebruikt om een motion capture pak overbodig te maken. Een eenvoudige GoPro camera of webcam is al voldoende. Kijkt u even vanaf 1:03 min. in onderstaand filmpje om te zien hoe dat werkt.

Nu zult u wellicht denken dat de mogelijkheid om dit realtime te doen niet bestaat. Think again. We hebben dus hierboven al gezien dat het mogelijk is om niet-bestaande personen via Generative Adversarial Networks te creëren. We weten nu dat zowel een stadsomgeving als een personage via neural networks gegenereerd kunnen worden. De vraag is alleen nog of dat ook real time kan. Daar komt de techniek van de real time facial reenactment om de hoek. Dat bestaat al voor een eenvoudige thuis-pc sinds het jaar 2015 (zie onderstaande filmpje).

Alles bij elkaar opgeteld kunnen we dus wel stellen dat het al jarenlang mogelijk is om deepfake video’s te genereren. De techniek is nu echter zo vereenvoudigd door de opkomst van Generative Adversarial Networks, neural networks en real time facial reenactment, dat je eigenlijk in enkele minuten tijd een gehele voorgeschiedenis van een niet bestaand persoon kunt maken, een live interview van die niet bestaande persoon in elke willekeurige omgeving vanuit elke willekeurige camera’s invalshoek en elke weersomstandigheid kunt maken.

Wat zijn hiervan de implicaties? Om te beginnen kun je dus eigenlijk wel stellen dat je al sinds jaar en dag geen video meer 100% kunt vertrouwen. Bekijk hier hoe lang CGI technieken al worden toegepast in de filmindustrie. Op dit moment is het echter zo eenvoudig dat iedereen met een budget van een paar duizend euro dit al kan doen. Gaan we er vanuit dat de media eerlijk zijn, dan mogen we aannemen dat zij dergelijke technieken niet al jaren toepassen. Als we echter rekening houden met de mogelijkheid dat overheden psychologische operaties inzetten om het volk psychisch in de acceptatiemodus van nieuwe en strengere wetgeving te brengen, dan moeten we ons beseffen dat er technisch gezien al jarenlang niets in de weg staat om nepnieuws te produceren. In dat kader is het erg interessant om te weten dat ‘s lands grootste persbureau (het Algemeen Nederlands Persbureau; afgekort ANP) in handen is van een tv-producent (die ook nog eens miljardair is). Hoe groot moet ons vertrouwen zijn om zeker te weten dat deze technieken dus niet al jaren worden toegepast?

Het lijkt erop dat de media naarstig op zoek zijn om het lek te dichten dat Martin Vrijland in de bodem van het grote mainstream media schip geslagen heeft. Sinds enkele jaren licht ik namelijk toe hoe media beelden kunnen manipuleren. Jort Kelder en Alexander Klöpping mochten daarom in het tv-programma Kelder & Klöpping laten zien wat deepfakes zijn. Ook het radioprogramma Beeldbepalers (perceptiemanagers dus) van BNR Nieuwsradio kaartte recent aan waar ik al zolang over schrijf. Duidelijk is dat steeds de paniek merkbaar is en dat de programmamakers de kijker en luisteraar moeten proberen aan boord te houden. U moet blijven vertrouwen in de media en in de democratie, want er is niets ergers dan dat het gepeupel in opstand komt (om in de woorden van Jort kelder te spreken).

Natuurlijk is de “oplossing” voor dit alles dat overheden en tech-bedrijven gaan proberen een soort watermerk aan filmpjes toe te voegen, zodat ze op echtheid gecontroleerd kunnen worden. De vraag is alleen dat wanneer overheden zelf al jaren nepnieuws gebruiken om wetgeving door te drukken en het volk te bespelen of dat watermerk dan wel zo betrouwbaar is. Gaat een slager zijn eigen vlees afkeuren? Nee, natuurlijk niet. Al het nieuws uit de koker van de John de Mol, het NOS, de Telegraaf enzovoort is natuurlijk altijd volledig betrouwbaar en eerlijk geweest! Kuch. Denkt u nu echt dat John de Mol vandaag of morgen een keer op tv verschijnt om te zeggen: “Sorry dames en heren, ik heb nepnieuws gemaakt met al die tv-studio’s en software die ik tot mijn beschikking heb. Ik heb u nepnieuws voorgeschoteld en met psychologische operaties bespeeld op kosten van de belastingpot en mijn zakken lekker gevuld“? Nee, natuurlijk niet. En u moet natuurlijk vertrouwen houden in de media en in de overheid, want op wie moet u anders nog vertrouwen? Lees hier

Mogelijke deepfake toepassingen:

  1. deepfake social media profielen
  2. foto’s en filmpjes van vroeger inclusief familie en vrienden
  3. live interview met een niet bestaand persoon
  4. beelden van beveiligingscamera’s
  5. video als bewijsmateriaal in het nieuws (nepnieuws producties)
  6. enzovoort

Bron linkvermeldingen: bnr.nl, wikipedia.org

74 Shares

Tags: , , , , , , , , , , , , , , , , , ,

About the Author ()

Comments (1)

Trackback URL | Comments RSS Feed

  1. guppy schreef:

    De leiders van deze planeet gebruiken nog steeds dezelfde technieken. Ze gaan kwa technologie wel met de tijd mee. Vroeger kon je ook hele volkstammen gek maken met een niet bestaand figuur. Ze zijn ons altijd al een stap voor geweest door de geschiedenis naar hun hand te zetten met behulp van boekrollen en dergelijke.

    Vroeger waren er ook Martin’s die mensen erop wezen dat ze voor de gek gehouden worden.

    Het erge is dat de mensen van deze tijd denken dat ze slimmer zijn als onze voorgangers. Ik denk dat er niet veel veranderd is, we zijn nog steeds slaven die zichzelf naar de klote werken voor een hapje en een drankje.

    Vroeger zeiden ze “je moet niet alles geloven wat ze zeggen”

    Tegenwoordig zeggen we ” je moet niet alles geloven wat je ziet”

Leave a Reply

Door de site te te blijven gebruiken, gaat u akkoord met het gebruik van cookies. meer informatie

De cookie-instellingen op deze website zijn ingesteld op 'toestaan cookies "om u de beste surfervaring mogelijk. Als u doorgaat met deze website te gebruiken zonder het wijzigen van uw cookie-instellingen of u klikt op "Accepteren" hieronder dan bent u akkoord met deze instellingen.

Sluiten