SÉCURITÉ - DIVERS - 10.04.2024

Comment reconnaître une photo deepfake ?

Avec l’IA, il devient de plus en plus facile de créer une fausse photo ( deepfake ) d’une personne, d’un lieu ou d’un produit. Comment éviter de se faire piéger ?

L’IA générative telle que DALL-E 3 ( https://openai.com/dall-e-3 ), Midjourney ( https://www.midjourney.com ) ou Stable Diffusion ( https://stablediffusionweb.com ) est de plus en plus utilisée pour produire des deepfakes , comme la photo d’un événement qui n’a jamais eu lieu, la photo de profil d’une personne qui n’est pas réelle, la photo commerciale d’un produit qui n’existe pas, etc. Comment reconnaître ces fausses photos ?

Zoomez et regardez de plus près

Pour examiner efficacement l’image, ouvrez-la dans la résolution la plus élevée possible, puis zoomez. En regardant les détails, vous découvrirez des irrégularités ou des erreurs que vous n’aviez peut-être pas remarquées de prime abord.

Personnes suspectes

Les visages générés par IA ont souvent un aspect anormalement lisse. Ils peuvent également être très détaillés, avec des rides très marquées ou d’autres imperfections de la peau. Soyez aussi attentif aux mains, aux oreilles et aux dents : ont-elles l’air normal ? Au début, il arrivait fréquemment que des mains comptent un doigt en trop, mais c’est devenu beaucoup plus rare. La texture des cheveux ou des vêtements peut aussi poser problème : nette à certains endroits et floue à d’autres, ou avec un motif qui n’est pas le même partout.

Objets suspects

S’il s’agit de la photo d’un lieu, examinez attentivement l’arrière-plan : y a-t-il des éléments inattendus, comme des tables ou chaises auxquelles il manque des pieds, ou des objets qui n’y ont pas leur place ou ne sont que partiellement représentés ? L’IA a encore du mal avec le texte dans une image générée : vous pouvez déceler un mot qui n’existe pas, un mot mal écrit ou du texte déformé. Si du texte est repris à l’arrière-plan, vérifiez qu’il ne contient pas d’irrégularité. C’est toutefois également de plus en plus rare.

S’il s’agit de la photo d’un produit, vérifiez si l’article existe réellement, en effectuant une recherche d’image inversée (allez sur https://images.google.com , cliquez sur l’icône Google Lens et chargez la photo). Si le produit est introuvable, méfiez-vous.

Contrôlez la source

Les générateurs d’images ajoutent de plus en plus souvent des métadonnées contenant des informations sur la manière dont ces images ont été créées. Vous pouvez les retrouver dans les propriétés du fichier. Bien que ces métadonnées puissent être facilement supprimées ou modifiées, cela vaut la peine de les contrôler.

Vous pouvez aussi rechercher un filigrane : certains outils d’IA ajoutent sur chaque image qu’ils génèrent un logo ou un motif discret, mais visible, le plus souvent dans un coin (mais qui peut donc être facilement rogné).

Posez-vous des questions

Il est de plus en plus ardu de reconnaître les images générées par l’IA, et il n’existe pas non plus d’outil qui permette de le vérifier de manière fiable. Vous pouvez essayer AI orNot ( https://www.aiornot.com ), mais le meilleur moyen reste encore de toujours faire preuve d’esprit critique. Quelle est la source de cette image ? Cette source est-elle fiable ? Qui partage l’image, et dans quel but ? L’image correspond-elle à d’autres informations fiables dont vous disposez ?

Les deepfakes seront de plus en plus difficiles à identifier, et il n’existe pas de bons outils pour reconnaître automatiquement les photos générées par l’IA. Soyez donc critique : zoomez sur les détails, contrôlez les métadonnées, analysez le texte sur la photo, et posez-vous des questions sur la source et le but de l’image.

Contact

Larcier-Intersentia | Tiensesteenweg 306 | 3000 Louvain

Tél. : 0800 39 067 | Fax : 0800 39 068

contact@larcier-intersentia.com | www.larcier-intersentia.com

 

Siège social

Lefebvre Sarrut Belgium SA | Rue Haute, 139 - Boîte 6 | 1000 Bruxelles

RPM Bruxelles | TVA BE 0436.181.878