Les experts du monde entier s’inquiètent de plus en plus des nouveaux outils d’Intelligence Artificielle (IA) qui rendent plus facile que jamais l’édition des images et vidéos, en particulier avec le fort pouvoir des réseaux sociaux pour partager ces « fakes » sans vérification des faits. Certains de ces outils sont développés par Adobe, mais la société travaille également sur un antidote en faisant des recherches sur la façon dont l’IA peut être utilisée pour repérer automatiquement images dites photoshoppés.

Les derniers travaux de la société, présentés ce mois-ci lors de la Conférence CVPR, démontrent comment les machines peuvent démontrer en bien moins de temps que les humains et avec un taux de réussite plus élevé quelles images sont trafiquées ainsi que la nature de cette modification. Il n’est pas encore disponible en tant que produit commercial, mais il est intéressant de voir Adobe, éditeur de logiciels de retouche d’image, s’intéresser à ce phénomène.

Le nouveau document de recherche montre comment le machine learning peut être utilisé pour identifier des types courants de manipulation d’image par exemple le clonage, où les objets dans une image sont copiés et collés ou la suppression, lorsqu’un objet est édité complètement.

Pour repérer ce genre de falsification, les experts recherchent généralement des indices dans les couches cachées de l’image. Lorsque des modifications sont faites, ils laissent derrière eux des artefacts numériques, comme des incohérences dans les variations de couleur et de luminosité créées par les capteurs d’image (également connu sous le nom de bruit d’image). Lorsque vous raccordez deux images différentes, par exemple, ou que vous copiez et collez un objet d’une partie d’une image à une autre, ce bruit de fond ne correspond pas, comme une tache sur un mur recouvert d’une couleur de peinture légèrement différente.

Image montrant la procédure pour une IA d'analyser une image fake

Image tirée du blog d’Adobe montrant les étapes de reconnaissance d’une image Fake

Comme avec beaucoup d’autres systèmes de machine learning, Adobe a dû utiliser un ensemble de données volumineuses d’images éditées. De là, il a appris à repérer les modèles communs qui indiquent une falsification. Cependant, la recherche n’a pas encore été assez loin pour repérer les deepfakes, un nouveau type de vidéos éditées et créées à l’aide de l’intelligence artificielle.