Er is een wapenwedloop gaande tussen AI-algoritmes die fake beelden genereren en AI-algoritmes die diezelfde beelden kunnen ontmaskeren. De winnaar is reeds bekend: uiteindelijk zal AI-nepfoto’s maken die niet meer te detecteren zijn.
Chaos op de beurs
Op maandag 21 mei kliefde AI als een dubbelzijdig zwaard door het raderwerk van de financiële wereld. Toen op een schijnbaar betrouwbare, want blue-checked, Twitter-account een foto opdook van een brand bij het Pentagon in Washington DC, begonnen algoritmes die het nieuws volgen automatisch bepaalde aandelen van de hand te doen. De koersen in New York dipten daardoor even met een half procent. De beurs herstelde zich snel nadat de brandweer van Arlington County verklaarde dat er geen sprake was van brand bij het Amerikaanse ministerie van defensie en verschillende experts meldden dat de foto overduidelijk nep was.
Het voorval laat zien hoeveel chaos gezaaid kan worden met fake nieuws, vooral wanneer dit ondersteund wordt door realistische beelden of video’s op schijnbaar betrouwbare media. Hoewel realistisch? Mensen die ook maar enigszins bekend waren met het Pentagon, zagen meteen dat het gebouw op de foto niet het Pentagon was. Daarnaast wezen allerlei foutjes in het beeld erop dat de foto op een tamelijk knullige manier gemaakt was met behulp van een AI-beeldgenerator.
Verder lezen?
Log in of abonneer je op TW om verder te lezen.
Klik hier en krijg direct toegang tot de premium-artikelen.





