Adobe werkt aan manier om gezichtsmanipulatie te herkennen

Adobe werkt aan kunstmatige intelligentie die nepfoto’s kan herkennen. Het bedrijf beschrijft in een blogpost hoe zijn neurale netwerk succesvol kan herkennen of een foto met een bepaalde tool is gemanipuleerd.

Het gaat om foto’s van gezichten die bewerkt zijn met de Face Aware Liquify-tool in Adobe Photoshop. Onderzoekers Richard Zhang en Oliver Wang ontwikkelden samen met een aantal andere wetenschappers een neuraal netwerk dat aanpassingen met de tool niet alleen kan detecteren, maar ook kan terugdraaien.

Adobe richt hiermee voor het eerst de pijlen op het herkennen van gezichtsmanipulatie. Eerder ontwikkelde het bedrijf kunstmatige intelligentie die manipulatie met knippen, kopiëren en plakken kan detecteren, bijvoorbeeld in sfeerbeelden.

Magische ‘undo‘-knop nog niet gevonden

“Dit nieuwe onderzoek is deel van een bredere inspanning binnen Adobe om manipulaties van foto’s, video’s, audio en documenten beter te herkennen”, schrijft het bedrijf. Het besloot om naar Face Aware Liquify te kijken omdat de manipulaties van dat gereedschap vrij subtiel zijn.

De kunstmatige intelligentie kon in 99 procent van de gevallen herkennen of de foto was bewerkt. Mensen slaagden daar slechts bij 53 procent van de foto’s in.

“De magische ‘undo‘-knop om fotobewerking terug te draaien, is nog niet gevonden”, schrijft Zhang. Hij vindt het onderzoek belangrijk omdat het steeds moeilijker wordt om digitale informatie te vertrouwen.

De zorgen om ‘deepfakes‘, gemanipuleerde video’s waarbij het gezicht of het lichaam van een persoon op een ongerelateerde video wordt ‘geplakt’, nemen de afgelopen jaren toe. Adobe schrijft dat het zich verantwoordelijk voelt om hier oplossingen voor te vinden, omdat zijn programma’s veel worden gebruikt voor beeldmanipulatie.