maandag, april 27, 2026

Deepfake-technologie en implicaties

Fake Video met een onbekend persoon met Mick Jagger op een podium.
Deepfake
is een vorm van synthetische media waarbij AI wordt gebruikt om realistisch ogende beelden, video’s of audio te creëren of te manipuleren—bijvoorbeeld door het gezicht of de stem van iemand overtuigend te laten lijken in een situatie die nooit heeft plaatsgevonden.

Een veelgebruikte techniek hierbij is het Generative Adversarial Network (GAN): twee neurale netwerken “spelen” als het ware tegen elkaar. Een generator maakt vervalste beelden, terwijl een discriminator probeert te onderscheiden wat echt is en wat nep is. Door die wedstrijd worden de vervalsingen steeds geloofwaardiger. [digitalsocietyhub.nl], [shuftipro.com] 

Is een kernachtige en juiste omschrijving. Je raakt precies de essentie: de kracht van deepfakes zit niet in één slim algoritme, maar in de interactie tussen twee concurrerende systemen.

Om te begrijpen waarom deze beelden vaak niet van echt te onderscheiden zijn, is het nuttig om te kijken naar wat er "onder de motorkap" gebeurt tijdens die wedstrijd.






Getty Images

De Dynamiek van een GAN

In een Generative Adversarial Network (GAN) werken de twee netwerken in een gesloten feedback-loop. Je kunt het vergelijken met een kunstvervalser en een detective:

  • De Generator (De Vervalser): Dit netwerk begint met willekeurige ruis en probeert daar een afbeelding van te maken (bijvoorbeeld een menselijk gezicht). In het begin lijkt het nergens op, maar het leert van de feedback die het krijgt.

  • De Discriminator (De Detective): Dit netwerk krijgt zowel echte foto's als de baksels van de generator te zien. Zijn enige taak is bepalen: "Is dit echt of nep?"

Waarom dit zo effectief is

Elke keer dat de discriminator een vervalsing herkent, krijgt de generator een "strafpunt" en informatie over waarom het faalde. De generator past zijn strategie aan om de fout de volgende keer te voorkomen. Tegelijkertijd wordt de discriminator ook slimmer; hij leert steeds subtielere imperfecties herkennen.

Het resultaat is een nulpuntspel: de generator wordt pas "goedgekeurd" als de discriminator het verschil niet meer kan zien. Op dat punt is de vervalsing mathematisch gezien nagenoeg perfect.


De stap voorbij GANs: Diffusiemodellen

Hoewel GANs de basis legden, zie je tegenwoordig dat veel moderne tools (zoals Midjourney of DALL-E) gebruikmaken van Diffusiemodellen.

In plaats van een wedstrijd tussen twee netwerken, leert een diffusiemodel om "ruis" stap voor stap te verwijderen uit een afbeelding totdat er een helder beeld overblijft. Dit zorgt vaak voor nog stabielere en gedetailleerdere beelden dan de klassieke GAN-methode, vooral bij complexe achtergronden.

Hoewel deepfakes steeds geavanceerder worden, laten ze bijna altijd subtiele sporen achter. Omdat AI-modellen vaak gericht zijn op het gezicht zelf, ontstaan de fouten meestal op de grensvlakken (waar het gezicht de achtergrond raakt) of bij complexe fysieke details waar de AI de logica niet van begrijpt.

Hieronder staan de meest voorkomende visuele "tells" verdeeld per categorie:

Overzicht van Deepfake Artifacten

CategorieWaar moet je op letten?Waarom gaat de AI hier de fout in?
OgenOnnatuurlijk knipperen (te veel of te weinig) of reflecties die niet overeenkomen met de omgeving.AI heeft moeite met de fijne motoriek van oogleden en de complexe fysica van lichtreflectie op een bol oppervlak.
Mond & TandenTanden lijken één massief wit blok zonder individuele vormen; lippen die niet synchroon lopen met "harde" klanken (zoals de P, B en M).De AI genereert vaak een "gemiddeld" gebit in plaats van de unieke imperfecties van een echt persoon.
Randen & GrenzenFlikkeringen bij de kaaklijn, hals of haarlijn. Brillen die in de huid lijken te smelten.Het model vindt het lastig om een masker (het deepfake-gezicht) perfect te laten aansluiten op de originele nek en achtergrond.
Huid & TextuurEen huid die "te perfect" is (geen poriën of moedervlekken) of juist vreemde vlekken die meebewegen met het hoofd.Smoothening-filters worden vaak overmatig gebruikt om fouten te maskeren, wat leidt tot een plastic look.

De 4-stappen Sanity Check

Als je twijfelt of een video echt is, kun je deze systematische controle uitvoeren:

1.Focus op de ogen:Kijk naar de reflectie.

Pauzeer de video bij een close-up. Heeft de linker- en rechteroog exact dezelfde lichtreflectie? Bij deepfakes verschilt dit vaak omdat de ogen apart worden gegenereerd.

2.Controleer de mond:Let op de tanden.

Kijk of je individuele tanden ziet. Als het een vage witte massa is of als de tanden "verschuiven" terwijl de persoon praat, is het waarschijnlijk synthetisch.

3.Kijk naar de randen:Check de overgangen.

Let op de plek waar het gezicht overgaat in de hals. Zie je een vage lijn of een dubbele kin die verschijnt en verdwijnt? Dit is een teken dat het gezicht over een ander lichaam is geplaatst.

4.Analyseer de achtergrond:Let op vervorming.

Kijk naar objecten achter de persoon. Als de persoon beweegt en de achtergrond (zoals een deurpost of gordijn) een fractie meebuigt of vervormt, wijst dit op digitale manipulatie.


Expert-tip: Let vooral op sieraden en brillen. Oorbellen die aan één kant ontbreken of een brilpootje dat plotseling achter een oor verdwijnt en weer verschijnt, zijn de meest betrouwbare weggevers van huidige AI-generatoren.



Waarom detectie nooit 100% waterdicht is

Detectoren zijn getraind op bestaande AI-modellen. Zodra er een fundamenteel nieuw type AI verschijnt (zoals de overstap van GANs naar Diffusiemodellen), zijn oude detectoren plotseling blind voor de nieuwe soort vervalsingen. Daarom verschuift de focus in de tech-wereld steeds meer van detectie naar herkomst: het digitaal "ondertekenen" van echte beelden bij de bron (de camera).