La FTC souhaite modifier sa réglementation pour lutter contre les deepfakes

La FTC souhaite modifier sa réglementation pour lutter contre les deepfakes

Face à la menace croissante des « deepfakes », la FTC cherche à modifier une règle existante qui interdit l’usurpation de l’identité d’une entreprise ou d’une agence gouvernementale afin de couvrir l’ensemble des consommateurs.

La règle révisée – en fonction de la formulation finale et des commentaires publics reçus par la FTC – pourrait également rendre illégal pour une plateforme GenAI de fournir des biens ou des services dont elle sait ou a des raisons de savoir qu’ils sont utilisés pour nuire aux consommateurs par le biais de l’usurpation d’identité.

« Les fraudeurs utilisent des outils d’IA pour usurper l’identité de personnes avec une précision inquiétante et à une échelle beaucoup plus large », a déclaré Lina Khan, présidente de la FTC, dans un communiqué de presse. « Avec l’augmentation du clonage vocal et d’autres escroqueries basées sur l’IA, la protection des Américains contre la fraude à l’usurpation d’identité est plus importante que jamais. Les extensions que nous proposons à la règle finale sur l’usurpation d’identité vont dans ce sens, en renforçant la boîte à outils de la FTC pour lutter contre les escroqueries fondées sur l’IA qui usurpent l’identité d’un individu ».

Il n’y a pas que les gens comme Taylor Swift qui doivent s’inquiéter des « deepfakes ». Les escroqueries amoureuses en ligne impliquant des « deepfakes » sont en augmentation. Des escrocs se font passer pour des employés afin de soutirer de l’argent à des entreprises.

Dans un récent sondage réalisé par YouGov, 85 % des Américains se sont déclarés très inquiets ou assez inquiets de la diffusion de vidéos et de sons trompeurs. Une autre enquête de l’Associated Press-NORC Center for Public Affairs Research a révélé que près de 60 % des adultes pensent que les outils d’IA augmenteront la diffusion d’informations fausses et trompeuses au cours du cycle électoral américain de 2024.

La semaine dernière, mon collègue Devin Coldewey a couvert la décision de la FCC de rendre illégaux les robocalls à voix artificielle en réinterprétant une règle existante qui interdit les spams artificiels et les messages préenregistrés. Cette modification de la règle – et la mesure prise aujourd’hui par la FTC – est opportune à la lumière d’une campagne téléphonique qui a utilisé un président Biden falsifié pour dissuader les citoyens du New Hampshire de voter, et représente l’étendue actuelle de la lutte du gouvernement fédéral contre les falsifications et les technologies de falsification.

Aucune loi fédérale n’interdit clairement les deepfakes. Les victimes les plus en vue, comme les célébrités, peuvent théoriquement se tourner vers des recours juridiques plus traditionnels pour riposter, notamment le droit d’auteur, le droit à l’image et les délits civils (par exemple, l’atteinte à la vie privée, l’infliction intentionnelle de détresse émotionnelle). Mais ces lois disparates peuvent être longues – et laborieuses – à mettre en œuvre.

En l’absence d’action du Congrès, dix États ont adopté des lois criminalisant les « deepfakes », bien qu’il s’agisse principalement de pornographie non consensuelle. Il ne fait aucun doute que ces lois seront modifiées pour englober un éventail plus large de deepfakes – et que d’autres lois seront adoptées au niveau des États – à mesure que les outils de génération de deepfakes deviendront de plus en plus sophistiqués. (À titre d’exemple, la loi du Minnesota vise déjà les deepfakes utilisés dans les campagnes politiques).

IA