De directeur van een Brits bedrijf kreeg vorig jaar een telefoontje van zijn baas in Duitsland met het verzoek €220.000 over te maken naar een Hongaarse bankrekening. De Brit gehoorzaamde. Even later werd duidelijk– zo bericht de Wall Street Journal – dat hij digitaal was belazerd. Het telefoontje kwam van een oplichter die met AI-stemtechnologie het accent en de intonatie van de Duitse chef perfect nabootste. Het geld was weg en daarmee het vertrouwen in een alledaags telefoongesprek.
Nepfoto’s, nepaudio ’s en nepvideo’s ondermijnen het vertrouwen in de eigen waarneming en daarmee het vertrouwen in de politiek, de media, justitie en zelfs in die leuke neef die zo handig is met fotoshop. We weten immers niet of een foto, een video of een geluidsopname echt of fake is? Bedrijven, overheden en universiteiten erkennen het probleem en proberen tools te ontwikkelen die onderscheid maken tussen nep en echt.
Stalin had al mensen in dienst die in ongenade gevallen kameraden op klunzige wijze uit foto’s retoucheerden. Pas met Adobe’s Photoshop werd het mogelijk middels verwijderen, uitvloeien en klonen de werkelijkheid van een foto op een onnavolgbare manier te veranderen. Het siert Adobe dat het nu bezig is software te ontwikkelen die kan herkennen waar pixels zijn gemanipuleerd.
Adobe benut AI om artefacten op te sporen, de voetsporen die beeldmanipulatie achterlaat. Het bedrijf traint een neuraal netwerk met tienduizenden beelden waardoor het kan herkennen wat echt is en wat gemanipuleerd. Daarnaast werkt Adobe samen met de New York Times aan een standaard waarmee betrouwbare beeldmakers hun beeld kunnen signeren en die bijhoudt welke veranderingen pixels ondergaan.
Walt Disney liet een reeds overleden actrice – Carrie Fisher als prinses Leia – optreden in de twee laatste Star Wars films. Dezelfde manipulatie van beeld en audio wordt uiteraard ook gebruikt om fake video’s te maken. Volgens Deeptrace, een in Amsterdam gevestig bedrijf dat deepfakes opspoort – circuleerden er in juli 2019 14,678 deepfake video’s op Internet. Het overgrote deel – 96 procent – is porno waarin vaak de hoofden van bekende actrices of zangeressen zijn geplakt.
Voor Facebook en Google – bedrijven die leven van het verspreiden van video en audio – is fake een probleem. Beide zijn dan ook betrokken bij de Deepfake Detection Challenge, een uitdaging technologieën te ontwikkelen om deepfake video’s op te sporen. Facebook stelt een database van 100.000 authentieke en gemanipuleerde video’s van acteurs ter beschikking aan derden om neurale netwerken te trainen.
De AI Foundation heeft een website – Reality Defender 2020 – die media en politieke campagnes binnen een paar minuten laat weten of een foto of video echt is of gemanipuleerd. De website maakt gebruikt van algoritmen die veranderingen in pixels waarnemen en van algoritmen die de maniertjes en mimiek van bekende politici kennen.
Dana Rao, vicepresident van Adobe, spreekt van een wapenrace. De tools die gebruikt worden om deepfakes te maken zullen altijd een stap voorliggen op de tools die worden ontwikkeld om ze op te sporen. Een ander probleem: het mag dan mogelijk zijn deepfakes op te sporen maar de makers zullen vrijwel altijd buiten schot blijven.