OpenAI a « discuté et débattu assez longuement » de la date de sortie d’un outil permettant de déterminer si une image a été réalisée avec DALL-E 3, le modèle artistique d’IA générative d’OpenAI, ou non. Mais la startup n’est pas près de prendre une décision de sitôt.
C’est ce qu’affirme Sandhini Agarwal, une chercheuse d’OpenAI qui se concentre sur la sécurité et la politique, lors d’un entretien téléphonique avec TechCrunch cette semaine. Elle a déclaré que, bien que la précision de l’outil de classification soit « très bonne » – du moins selon ses estimations – elle n’a pas atteint le seuil de qualité d’OpenAI.
« Il s’agit d’un outil qui n’est pas très fiable, étant donné que les décisions qu’il pourrait prendre pourraient avoir une incidence importante sur les photos, par exemple si une œuvre est considérée comme ayant été peinte par un artiste ou si elle est inauthentique et trompeuse », a déclaré Mme Agarwal.
La précision visée par OpenAI pour cet outil semble être extraordinairement élevée. Mira Murati, directrice de la technologie d’OpenAI, a déclaré cette semaine à la conférence Tech Live du Wall Street Journal que le classificateur est fiable à 99 % pour déterminer si une photo non modifiée a été créée avec DALL-E 3. Peut-être que l’objectif est de 100 % ; Agarwal n’a pas voulu le dire.
Un projet de billet de blog d’OpenAI partagé avec TechCrunch a révélé cette information intéressante :
« (Le classificateur) reste précis à plus de 95 % lorsqu’une image a été soumise à des modifications courantes, telles que le recadrage, le redimensionnement, la compression JPEG, ou lorsque du texte ou des découpes d’images réelles sont superposés à de petites portions de l’image générée. »
La réticence d’OpenAI pourrait être liée à la controverse entourant son précédent outil de classification public, qui était conçu pour détecter le texte généré par l’IA non seulement à partir des modèles d’OpenAI, mais aussi à partir des modèles de génération de texte publiés par des fournisseurs tiers. OpenAI a retiré le détecteur de texte écrit par l’IA en raison de son « faible taux de précision », qui avait été largement critiqué.
Agarwal laisse entendre qu’OpenAI est également préoccupée par la question philosophique de savoir ce qui constitue exactement une image générée par l’IA. Une œuvre d’art générée à partir de zéro par DALL-E 3 est manifestement admissible. Mais qu’en est-il d’une image de DALL-E 3 qui a fait l’objet de plusieurs séries d’éditions, qui a été combinée avec d’autres images et qui a ensuite été passée à travers quelques filtres de post-traitement ? C’est moins évident.

Une image générée par DALL-E 3. Crédits image : OpenAI
« À ce moment-là, cette image doit-elle être considérée comme générée par l’IA ou non ? a déclaré M. Agarwal. « Pour l’instant, nous essayons de répondre à cette question, et nous aimerions vraiment connaître l’avis des artistes et des personnes qui seraient touchées de manière significative par de tels outils (de classification). »
Un certain nombre d’organisations – et pas seulement l’OpenAI – explorent des techniques de filigrane et de détection pour les médias génératifs alors que les deepfakes de l’IA prolifèrent.
DeepMind a récemment proposé une spécification, SynthID, pour marquer les images générées par l’IA d’une manière imperceptible à l’œil humain, mais qui peut être repérée par un détecteur spécialisé. La startup française Imatag, lancée en 2020, propose un outil de filigrane qui, selon elle, n’est pas affecté par le redimensionnement, le recadrage, l’édition ou la compression des images, à l’instar de SynthID. Une autre entreprise, Steg.AI, utilise un modèle d’intelligence artificielle pour appliquer des filigranes qui résistent au redimensionnement et à d’autres modifications.
Le problème, c’est que le secteur n’est pas encore parvenu à s’entendre sur une norme unique de filigrane ou de détection. Même si c’est le cas, rien ne garantit que les filigranes – et les détecteurs, d’ailleurs – ne pourront pas être contournés.
J’ai demandé à Agarwal si le classificateur d’images d’OpenAI permettrait un jour de détecter des images créées avec d’autres outils génératifs non OpenAI. Elle n’a pas voulu s’engager sur ce point, mais a dit que – selon l’accueil réservé à l’outil de classification d’images tel qu’il existe aujourd’hui – c’est une voie qu’OpenAI envisagerait d’explorer.
« L’une des raisons pour lesquelles (le classificateur) est actuellement spécifique à DALL-E 3 est qu’il s’agit, techniquement, d’un problème beaucoup plus facile à résoudre », a déclaré M. Agarwal. « Mais en fonction de l’évolution (de l’outil de classification), je ne dis pas que nous ne le ferons jamais.