Les images créées par IA contiennent un filigrane invisible
- 👨 Alexandre Godard
- Hier à 23:30
- 💬 1 com
Les images générées par IA portent une signature invisible, et c’est voulu
Chaque image produite par ChatGPT, Gemini ou n'importe quelle IA cache peut-être un secret que vous ne pouvez pas voir. Depuis le début, les grands laboratoires d’intelligence artificielle intègrent dans leurs générations des filigranes numériques invisibles à l’oeil nu. Une technologie discrète, mais dont les enjeux sont considérables.
Le principe repose sur une modification quasi imperceptible des pixels d’une image. Ces altérations, réparties sur l’ensemble de la surface selon des motifs mathématiques, ne dégradent pas la qualité visuelle du résultat. En revanche, un logiciel de détection spécialisé peut les retrouver et confirmer l’origine artificielle du contenu.
Google est aujourd’hui le leader du secteur avec son système SynthID, déployé sur plus de dix milliards d’images et de vidéos. La technique opère principalement dans le domaine des fréquences et résiste aux manipulations courantes : recadrage, compression, application de filtres ou redimensionnement. Un détecteur public permet aux journalistes et aux chercheurs de vérifier l’authenticité d’un visuel avec un score de confiance.
OpenAI adopte une approche complémentaire. En plus de signatures invisibles inscrites dans les pixels, ses modèles s’appuient sur le standard C2PA, qui encode dans les métadonnées de l’image l’historique complet de sa création et de ses modifications. L’information est plus riche, mais aussi plus fragile : une simple capture d’écran efface ces métadonnées.
Les motivations derrière ces dispositifs sont multiples. La lutte contre la désinformation est au premier rang : identifier rapidement si une image virale est réelle ou fabriquée devient crucial à l’heure des deepfakes. La traçabilité des contenus aide également les plateformes à modérer automatiquement les publications générées par IA, et ouvre des pistes pour traiter les questions de droits d’auteur.
Ces filigranes ne sont toutefois pas infaillibles. Des modifications lourdes, une re-génération avec un autre modèle ou certaines attaques adversariales peuvent les affaiblir. Les outils open source, souvent exécutés localement, échappent par construction à ce système. En l’absence de standard universel, plusieurs détecteurs sont parfois nécessaires pour obtenir une réponse fiable.
La piste reste prometteuse. Google, Meta et OpenAI combinent désormais plusieurs techniques pour renforcer la robustesse de leurs signatures. Le filigrane invisible n’est pas une barrière absolue, mais un premier repère dans un paysage médiatique saturé d’images synthétiques.