Anthropic prend des mesures pour prévenir la désinformation électorale

Anthropic prend des mesures pour prévenir la désinformation électorale

À l’approche de l’élection présidentielle américaine de 2024, Anthropic, la startup d’IA bien financée, teste une technologie permettant de détecter lorsque les utilisateurs de son chatbot GenAI posent des questions sur des sujets politiques et de les rediriger vers des sources d’information sur le vote qui font « autorité ».

Baptisée Prompt Shield, cette technologie, qui repose sur une combinaison de modèles de détection et de règles d’IA, affiche une fenêtre contextuelle lorsqu’un utilisateur américain de Claude, le chatbot d’Anthropic, demande des informations sur le vote. La fenêtre contextuelle propose de rediriger l’utilisateur vers TurboVote, une ressource de l’organisation non partisane Democracy Works, où il peut trouver des informations actualisées et précises sur le vote.

Anthropic explique que Prompt Shield a été rendu nécessaire par les lacunes de Claude dans le domaine des informations politiques et électorales. Claude n’est pas formé assez fréquemment pour fournir des informations en temps réel sur des élections spécifiques, reconnaît Anthropic, et est donc enclin à halluciner – c’est-à-dire à inventer des faits – à propos de ces élections.

Nous avons mis en place le « prompt shield » depuis le lancement de Claude – il signale un certain nombre de types de préjudices, sur la base de notre politique d’utilisation acceptable », a déclaré un porte-parole à TechCrunch par courrier électronique. « Nous allons lancer notre intervention de protection rapide spécifique aux élections dans les semaines à venir et nous avons l’intention d’en surveiller l’utilisation et les limites … Nous avons discuté avec une variété de parties prenantes, y compris des décideurs politiques, d’autres entreprises, la société civile et des agences non gouvernementales, ainsi que des consultants spécialisés dans les élections (lors de la mise au point de cette intervention).

Il s’agit apparemment d’un test limité pour le moment. Claude n’a pas présenté le pop-up lorsque je l’ai interrogé sur la manière de voter aux prochaines élections, mais a craché un guide de vote générique. Anthropic affirme qu’elle est en train de peaufiner Prompt Shield en vue de l’étendre à un plus grand nombre d’utilisateurs.

Anthropic, qui interdit l’utilisation de ses outils dans les campagnes politiques et le lobbying, est le dernier fournisseur de GenAI à mettre en œuvre des politiques et des technologies pour tenter d’empêcher l’interférence dans les élections.

Ce n’est pas une coïncidence. Cette année, au niveau mondial, plus d’électeurs que jamais dans l’histoire se rendront aux urnes, car au moins 64 pays représentant une population combinée d’environ 49 % de la population mondiale sont censés organiser des élections nationales.

En janvier, OpenAI a annoncé qu’elle interdirait l’utilisation de ChatGPT, son chatbot viral basé sur l’IA, pour créer des bots qui usurpent l’identité de candidats ou de gouvernements réels, présentent de manière erronée le fonctionnement du vote ou dissuadent les gens de voter. À l’instar d’Anthropic, OpenAI n’autorise pas les utilisateurs à créer des applications utilisant ses outils à des fins de campagne politique ou de lobbying – une politique que l’entreprise a réaffirmée le mois dernier.

Dans une approche technique similaire à Prompt Shield, OpenAI utilise également des systèmes de détection pour diriger les utilisateurs de ChatGPT qui posent des questions logistiques sur le vote vers un site web non partisan, CanIVote.org, géré par l’Association nationale des secrétaires d’État.

Aux États-Unis, le Congrès n’a pas encore adopté de loi visant à réglementer le rôle de l’industrie de l’IA dans la politique, malgré un certain soutien bipartisan. Dans le même temps, plus d’un tiers des États américains ont adopté ou introduit des projets de loi visant à lutter contre les « deepfakes » dans les campagnes politiques, alors que la législation fédérale est au point mort.

En lieu et place d’une législation, certaines plateformes – sous la pression des organismes de surveillance et des régulateurs – prennent des mesures pour empêcher l’utilisation abusive de la GenAI pour tromper ou manipuler les électeurs.

Google a déclaré en septembre dernier qu’il exigerait que les publicités politiques utilisant la GenAI sur YouTube et ses autres plateformes, telles que Google Search, soient accompagnées d’une mention bien visible si l’imagerie ou les sons ont été modifiés de manière synthétique. Meta a également interdit aux campagnes politiques d’utiliser des outils GenAI – y compris les siens – dans les publicités diffusées sur ses sites.

IA