Les géants de la technologie s’engagent volontairement à lutter contre les « deepfakes » liés aux élections

Les géants de la technologie s’engagent volontairement à lutter contre les « deepfakes » liés aux élections

Les entreprises technologiques s’engagent à lutter contre les « deepfakes » liés aux élections, alors que les décideurs politiques augmentent la pression.

Aujourd’hui, lors de la conférence de Munich sur la sécurité, des fournisseurs tels que Microsoft, Meta, Google, Amazon, Adobe et IBM ont signé un accord signalant leur intention d’adopter un cadre commun pour répondre aux « deepfakes » générés par l’IA et destinés à induire les électeurs en erreur. Treize autres entreprises, dont les startups OpenAI, Anthropic, Inflection AI, ElevenLabs et Stability AI et les plateformes de médias sociaux X (anciennement Twitter), TikTok et Snap, se sont jointes à la signature de l’accord, ainsi que le fabricant de puces Arm et les entreprises de sécurité McAfee et TrendMicro.

Les signataires ont déclaré qu’ils utiliseraient des méthodes pour détecter et étiqueter les deepfakes politiques trompeurs lorsqu’ils sont créés et distribués sur leurs plateformes, qu’ils partageraient leurs meilleures pratiques et qu’ils fourniraient des « réponses rapides et proportionnées » lorsque les deepfakes commenceraient à se répandre. Les entreprises ont ajouté qu’elles accorderaient une attention particulière au contexte lorsqu’elles répondront aux deepfakes, dans le but de « (sauvegarder) l’expression éducative, documentaire, artistique, satirique et politique » tout en maintenant la transparence avec les utilisateurs quant à leurs politiques sur les contenus électoraux trompeurs.

L’accord est effectivement sans effet et, selon certains critiques, ne constitue guère plus qu’un signal de vertu – ses mesures sont volontaires. Mais le battage médiatique montre que le secteur technologique se méfie de la réglementation en matière d’élections, alors que 49 % de la population mondiale se rendra aux urnes pour des élections nationales.

« Il est impossible que le secteur technologique puisse à lui seul protéger les élections contre ce nouveau type d’abus électoral », a déclaré Brad Smith, vice-président et président de Microsoft, dans un communiqué de presse. « Alors que nous nous tournons vers l’avenir, il semble à ceux d’entre nous qui travaillent chez Microsoft que nous aurons également besoin de nouvelles formes d’actions multipartites… Il est tout à fait clair que la protection des élections (nécessitera) que nous travaillions tous ensemble.

Aucune loi fédérale américaine n’interdit les « deepfakes », qu’ils soient liés aux élections ou non. Mais dix États ont adopté des lois qui les criminalisent, celle du Minnesota étant la première à viser les deepfakes utilisés dans le cadre de campagnes politiques.

Ailleurs, les agences fédérales ont pris les mesures d’application de la loi qu’elles pouvaient pour lutter contre la propagation des « deepfakes ».

Cette semaine, la FTC a annoncé qu’elle cherchait à modifier une règle existante qui interdit l’usurpation de l’identité d’entreprises ou d’agences gouvernementales afin de couvrir tous les consommateurs, y compris les politiciens. De son côté, la FCC a décidé de rendre illégaux les robocalls à voix artificielle en réinterprétant une règle qui interdit les messages vocaux artificiels et préenregistrés.

Dans l’Union européenne, la loi sur l’IA exigerait que tous les contenus générés par l’IA soient clairement identifiés comme tels. L’UE utilise également sa loi sur les services numériques pour obliger l’industrie technologique à lutter contre les « deepfakes » sous diverses formes.

Entre-temps, les deepfakes continuent de proliférer. Selon les données de Clarity, une société spécialisée dans la détection des deepfakes, le nombre de deepfakes créés a augmenté de 900 % d’une année sur l’autre.

Le mois dernier, des appels téléphoniques robotisés imitant la voix du président américain Joe Biden ont tenté de dissuader les gens de voter lors des élections primaires du New Hampshire. En novembre, quelques jours avant les élections en Slovaquie, des enregistrements audio générés par l’IA se sont fait passer pour un candidat libéral qui discutait de projets visant à augmenter le prix de la bière et à truquer les élections.

Dans un récent sondage réalisé par YouGov, 85 % des Américains se sont déclarés très inquiets ou assez inquiets de la diffusion de vidéos et d’enregistrements audio trompeurs. Une autre enquête de l’Associated Press-NORC Center for Public Affairs Research a révélé que près de 60 % des adultes pensent que les outils d’IA augmenteront la diffusion d’informations fausses et trompeuses au cours du cycle électoral américain de 2024.

IA