L’Inde, aux prises avec des informations erronées sur les élections, réfléchit aux labels et à sa propre coalition pour la sécurité de l’IA.

L’Inde, aux prises avec des informations erronées sur les élections, réfléchit aux labels et à sa propre coalition pour la sécurité de l’IA.

L’Inde, longtemps dans la lorsqu’il s’agit de coopter la technologie pour persuader le public, est devenue un point névralgique mondial lorsqu’il s’agit de savoir comment l’IA est utilisée, et abusée, dans le discours politique, et plus particulièrement dans le processus démocratique. Les entreprises technologiques, qui ont conçu les outils en premier lieu, se rendent dans le pays pour proposer des solutions.

Au début de l’année, Andy Parsons, directeur principal chez Adobe, qui supervise la participation de la société à l’initiative interprofessionnelle Content Authenticity Initiative (CAI), est entré dans le tourbillon lorsqu’il s’est rendu en Inde pour rencontrer les médias et les entreprises technologiques du pays afin de promouvoir les outils qui peuvent être intégrés dans les flux de travail du contenu pour identifier et signaler le contenu de l’IA.

« Au lieu de détecter ce qui est faux ou manipulé, nous devrions, en tant que société, et c’est une préoccupation internationale, commencer à déclarer l’authenticité, c’est-à-dire dire que si quelque chose est généré par l’IA, cela devrait être connu des consommateurs », a-t-il déclaré lors d’une interview.

M. Parsons a ajouté que certaines entreprises indiennes – qui ne font actuellement pas partie de l’accord de Munich sur la sécurité des élections par l’IA signé par OpenAI, Adobe, Google et Amazon en février – avaient l’intention de mettre en place une alliance similaire dans le pays.

« La législation est une chose très délicate. Il est difficile de supposer que le gouvernement légiférera correctement et assez rapidement dans n’importe quelle juridiction. Il vaut mieux que le gouvernement adopte une approche très stable et prenne son temps », a-t-il déclaré.

Les outils de détection sont notoirement incohérents, mais ils constituent un début de solution à certains problèmes, c’est du moins ce que l’on affirme.

« Le concept est déjà bien compris », a-t-il déclaré lors de son voyage à Delhi. « Ce que j’aide à faire comprendre, c’est que les outils sont également prêts. Ce n’est pas seulement une idée. C’est quelque chose qui est déjà déployé ».

Andy Parsons, directeur principal chez Adobe

Andy Parsons, directeur principal chez Adobe. Crédits d’image : Adobe

La CAI – qui promeut des normes ouvertes et libres de droits permettant d’identifier si un contenu numérique a été généré par une machine ou un être humain – est antérieure à l’engouement actuel pour l’IA générative : elle a été fondée en 2019 et compte aujourd’hui 2 500 membres, dont Microsoft, Meta et Google, le New York Times, le Wall Street Journal et la BBC.

Tout comme une industrie se développe autour de l’exploitation de l’IA pour créer des médias, une autre, plus petite, est en train de se créer pour tenter de corriger certaines des applications les plus néfastes.

En février 2021, Adobe a donc franchi une étape supplémentaire dans l’élaboration de l’une de ces normes et a cofondé la Coalition for Content Provenance and Authenticity (C2PA) avec ARM, BBC, Intel, Microsoft et Truepic. Cette coalition vise à développer une norme ouverte qui exploite les métadonnées des images, des vidéos, des textes et d’autres médias afin de mettre en évidence leur provenance et d’informer les utilisateurs sur l’origine du fichier, le lieu et l’heure de sa création, et s’il a été modifié avant d’arriver à l’utilisateur. L’IPE collabore avec la C2PA pour promouvoir la norme et la rendre accessible au plus grand nombre.

Aujourd’hui, elle collabore activement avec des gouvernements comme celui de l’Inde pour élargir l’adoption de cette norme afin de mettre en évidence la provenance du contenu de l’IA et de participer, avec les autorités, à l’élaboration de lignes directrices pour le développement de l’IA.

Adobe n’a rien, mais aussi tout à perdre en jouant un rôle actif dans ce jeu. Elle n’a pas encore acquis ou construit ses propres modèles de langage, mais en tant qu’éditeur d’applications telles que Photoshop et Lightroom, elle est le leader du marché des outils destinés à la communauté créative, et ne se contente donc pas de construire de nouveaux produits tels que Firefly pour générer du contenu d’IA de manière native, mais infuse de l’IA dans ses produits existants. Si le marché évolue comme certains le pensent, l’IA sera un élément indispensable si Adobe veut rester au top. Si les régulateurs (ou le bon sens) ont leur mot à dire, l’avenir d’Adobe pourrait bien dépendre de sa capacité à s’assurer que ce qu’elle vend ne contribue pas au désordre.

Quoi qu’il en soit, le tableau d’ensemble de l’Inde est bel et bien un gâchis.

Google s’est concentré sur l’Inde comme banc d’essai pour savoir comment il interdira l’utilisation de son outil d’IA générative Gemini lorsqu’il s’agit de contenu électoral ; les partis utilisent l’IA pour créer des mèmes avec des ressemblances d’opposants ; Meta a mis en place une « helpline » de deepfake pour WhatsApp, tant la popularité de la plateforme de messagerie pour la diffusion de missives alimentées par l’IA est grande ; à l’heure où les pays s’inquiètent de plus en plus de la sécurité de l’IA et de ce qu’ils doivent faire pour la garantir, il faudra voir quel sera l’impact de la décision prise en mars par le gouvernement indien d’assouplir les règles relatives à la manière dont les nouveaux modèles d’IA sont construits, testés et déployés. En tout état de cause, cette décision est certainement destinée à stimuler l’activité de l’IA.

Grâce à sa norme ouverte, la C2PA a mis au point un label nutritionnel numérique pour le contenu appelé « Content Credentials ». Les membres de l’IPE s’efforcent de déployer ce filigrane numérique sur leurs contenus afin de permettre aux utilisateurs d’en connaître l’origine et de savoir s’ils sont générés par l’IA. Adobe dispose de Content Credentials dans ses outils de création, notamment Photoshop et Lightroom. Il s’attache aussi automatiquement au contenu généré par le modèle d’IA Firefly d’Adobe. L’année dernière, Leica a lancé son appareil photo avec des références de contenu intégrées, et Microsoft a ajouté des références de contenu à toutes les images générées par l’IA et créées à l’aide de Bing Image Creator.

Références de contenu sur une image générée par l'IA

Crédits d’image : Références du contenu

M. Parsons a déclaré à TechCrunch que la CAI discute avec les gouvernements du monde entier sur deux points : l’un est de contribuer à la promotion de la norme en tant que norme internationale, et l’autre est de l’adopter.

« En cette année électorale, il est particulièrement important pour les candidats, les partis, les bureaux et les administrations en place qui diffusent en permanence des informations aux médias et au public de s’assurer que si quelque chose est publié par le bureau du Premier ministre (Narendra) Modi, c’est bien le bureau du Premier ministre Modi qui l’a publié. Il y a eu de nombreux incidents où ce n’était pas le cas. Il est donc très important pour les consommateurs, les vérificateurs de faits, les plateformes et les intermédiaires de comprendre que quelque chose est vraiment authentique », a-t-il déclaré.

La grande population de l’Inde, sa grande diversité linguistique et démographique rendent difficile la lutte contre la désinformation, a-t-il ajouté, un vote en faveur de simples étiquettes pour y remédier.

« C’est un peu ‘CR’… ce sont deux lettres occidentales comme la plupart des outils Adobe, mais cela indique qu’il y a plus de contexte à montrer », a-t-il déclaré.

La controverse se poursuit quant à l’objectif réel des entreprises technologiques qui soutiennent toute mesure de sécurité de l’IA : s’agit-il vraiment d’une préoccupation existentielle ou simplement d’avoir un siège à la table pour donner l’impression d’une préoccupation existentielle, tout en veillant à ce que leurs intérêts soient sauvegardés dans le processus d’élaboration des règles ?

« Les entreprises impliquées ne sont généralement pas controversées, et toutes celles qui ont signé le récent accord de Munich, y compris Adobe, se sont réunies et ont abandonné les pressions concurrentielles parce que ces idées sont quelque chose que nous devons tous faire », a-t-il déclaré pour défendre son travail.

IA