De Universiteit van Amsterdam (UvA) en het Nederlands Forensisch Instituut (NFI) gaan samen onderzoek doen naar de opsporing van deepfakes. Dat zijn realistische gemanipuleerde beelden waarbij het gezicht van iemand anders op het lichaam van een ander wordt gemonteerd.
Deepfakes worden onder meer gebruikt om bijvoorbeeld iemand af te persen met gemanipuleerde beelden. Of om een volwassene in kinderporno onherkenbaar te maken. Met het blote oog kunnen echte en deepfake beelden haast niet worden onderscheiden,. Maar met computermodellen kunnen ongeveer acht op de tien video’s herkend worden.
> LEES OOK: Kunstmatige intelligentie in het veiligheidsdomein
Meer onderzoek naar deepfakes is nodig
Met de samenwerking willen de UvA en de NFI ook zorgen dat die andere twee op de tien beelden herkend kunnen worden. Hiervoor is meer onderzoek nodig.
> LEES OOK: De snelle opmars van deep learning: ook in het politiewerk
Forensische bewijswaarde deepfakes onderbelicht
Marcel Worring, hoogleraar Multimedia Analytics aan de UvA, zegt dat momenteel 90 procent van investeringen in deepfakes gaan naar de verbeteringen van de techniek. “Slechts 10 procent van de investeringen gaat naar onderzoek om deepfakes te herkennen en dan wordt er slechts heel beperkt gekeken naar de forensische bewijswaarde. Dat is echt veel te weinig”, meent Worring.
> DOWNLOAD de GRATIS Whitepaper: Cameratoezicht – De impact van deep learning
Steganography en spraakherkenning
Naast deepfakes willen de UvA en de NFI ook meer aandacht vestigen op steganography, waarbij boodschappen in foto’s en video’s worden verstopt. Criminelen gebruiken dit om bijvoorbeeld de locatie van drugs door te geven. Verder gaan de instanties ook werken aan projecten om bijvoorbeeld forensisch materiaal beter te kunnen verzamelen met spraakherkenning, het doorzoeken van telefoons en de sensoren in auto’s.
Volg Security Management op LinkedIn