Nieuwe tool van OpenAI moet deepfakes en andere AI-manipulatie signaleren

Nieuwe tool van OpenAI moet deepfakes en andere AI-manipulatie signaleren

OpenAI heeft een tool ontwikkeld die het mogelijk maakt deepfakes te signaleren die zijn gemaakt met de eigen DALL-E beeldgenerator. Deze functionaliteit is bedoeld om misbruik met gemanipuleerde beelden tegen te gaan, bijvoorbeeld waar het seksuele content betreft of materiaal gericht op kinderen of ouderen.

De tool bevindt zich momenteel in de testfase, maar zou al wel 98 procent van alle door DALL-E gegenereerde of bewerkte beelden herkennen die het gevoerd krijgt, meldt OpenAI in een blogpost. Wanneer het onbewerkt, origineel materiaal te zien krijgt, volgt momenteel in ‘slechts’ 0,5 procent van de gevallen een vals positief.

Wanneer de tool beelden moet analyseren die door een ándere AI-tool zijn gemaakt, schiet het voorlopig tekort. Dan ziet het maar in 5 tot 10 procent van de gevallen dat het om AI-content gaat.

De poging om een dergelijke ‘reality check’ te ontwikkelen, is naast allerlei potentiële copyright-issues ingegeven door het gevaar van deepfakes. Daarbij lijkt het bijvoorbeeld of personen zich in situaties bevinden waarin ze nooit zijn geweest, of handelingen verrichten die zij nooit hebben gedaan. Denk ook aan vervalste historische beelden.

Met name is er de angst dat op termijn social media-platforms overspoeld raken door steeds overtuigendere, maar valse visuele informatie, bijvoorbeeld om verkiezingen of de publieke opinie te beïnvloeden.

Authenticiteitskeurmerk

OpenAI is verder toegetreden tot de stuurgroep van de Coalition for Content Provenance and Authenticity (C2PA). Bedrijven als Google, Adobe, Meta, Microsoft en Sony maken hier al deel van uit. Het gezelschap voorziet in certificering om de authenticiteit van digitale content vast te stellen.

Kortweg is de technologie achter C2PA bedoeld om te garanderen dat content afkomstig is van een geverifieerde bron en niet is vervalst of gemanipuleerd. Hiermee wil de industrie al een voorschot nemen op toekomstige wetgeving.

Transparantie over herkomst

Indien een beeld wél met behulp van AI is gemaakt of bewerkt, moet C2PA duidelijk maken wanneer en hoe er precies iets is gewijzigd. Dat moet transparantie bieden over de herkomst en bewerkingsgeschiedenis van digitale producten, of dat nu teksten zijn of (bewegende) beelden.

De metadata waar de C2PA authenticatiestandaard in voorziet, is door OpenAI al toegevoegd aan alle beelden gegenereerd met DALL-E 3, de nieuwste versie van de eigen beeldgenerator. Dezelfde technologie komt ook naar Sora, de videogenerator van OpenAI, wanneer die algemeen beschikbaar is.

Weerbare samenleving

OpenAI en diens belangrijkste investeerder Microsoft hebben daarnaast een Societal Resilience Fund ofwel ‘maatschappelijk weerbaarheidsfonds’ opgericht. Dat bevat momenteel een -naar AI-maatstaven- bescheiden 2 miljoen dollar.

Vanuit dit fonds worden initiatieven bekostigt om voorlichting over AI-manipulatie te geven, met name aan groepen waarvan men denkt dat ze eerder slachtoffer worden van dergelijke manipulatie, zoals senioren.

Lees ook: ElevenLabs maakt kleine stap naar bestrijding van audio deepfakes