Pourquoi une réglementation intelligente de l’IA est vitale pour l’innovation et le leadership des États-Unis.

Pourquoi une réglementation intelligente de l’IA est vitale pour l’innovation et le leadership des États-Unis.

Adolescent, je me suis plongé dans la science-fiction. Bien que les visions de nombreux films et romans ne se soient pas concrétisées, je suis toujours étonné par la capacité du légendaire écrivain Isaac Asimov à imaginer un avenir d’intelligence artificielle et de robotique. Aujourd’hui, face au battage médiatique autour de l’IA générative et d’autres outils d’IA, il est temps pour nous de suivre l’exemple d’Asimov et d’écrire un nouvel ensemble de règles.

Bien entendu, les règles de l’IA pour le XXIe siècle ne seront pas aussi simples que les trois règles de la robotique d’Asimov (popularisées dans « I, Robot »). Mais face à l’inquiétude suscitée par la montée en puissance des outils d’IA et à la demande malavisée d’un moratoire sur la recherche avancée en matière d’IA, l’industrie peut et doit faire pression en faveur de règles pour un développement responsable de l’IA. Il est certain que les avancées technologiques du siècle dernier nous ont permis d’acquérir une grande expérience dans l’évaluation des avantages du progrès technologique et de ses pièges potentiels.

La technologie elle-même est neutre. C’est la façon dont nous l’utilisons – et les garde-fous que nous mettons en place autour d’elle – qui déterminent son impact. En tant qu’êtres humains, l’exploitation de la puissance du feu nous a permis de rester au chaud et de prolonger la durée de conservation des aliments. Mais le feu peut toujours être destructeur.

Pensez à la façon dont les récents feux de forêt canadiens ont menacé des vies et des biens au Canada et endommagé la qualité de l’air aux États-Unis. L’énergie nucléaire, sous forme de bombes atomiques, a tué des milliers de personnes au Japon pendant la Seconde Guerre mondiale, mais l’énergie nucléaire éclaire une grande partie de la France et alimente les porte-avions américains.

Nous nous trouvons à un moment charnière pour l’avenir d’une technologie étonnante, complexe et importante. Nous ne pouvons pas nous permettre de laisser d’autres pays prendre les devants.

Dans le cas de l’IA, les nouveaux outils et plateformes peuvent résoudre de grands problèmes mondiaux et créer des connaissances précieuses. Lors d’une récente réunion des directeurs de l’information de la région de Détroit, les participants ont expliqué comment l’IA générative accélère déjà les délais de mise sur le marché et rend leurs entreprises plus compétitives.

L’IA générative nous aidera à « écouter » les différentes espèces animales. L’IA améliorera notre santé en favorisant la découverte de médicaments et le diagnostic des maladies. Des outils similaires permettent de personnaliser les soins aux personnes âgées et d’améliorer la sécurité de nos habitations. De plus, l’IA améliorera notre productivité, une nouvelle étude de McKinsey montrant que l’IA générative pourrait stimuler l’économie mondiale à hauteur de 4,4 billions de dollars par an.

Avec toutes ces possibilités, une technologie aussi étonnante peut-elle aussi être mauvaise ? Certaines des inquiétudes suscitées par les plateformes d’IA sont légitimes. Nous devons nous inquiéter du risque de contrefaçons profondes, de manipulations politiques et de fraudes visant les populations vulnérables, mais nous pouvons également utiliser l’IA pour reconnaître, intercepter et bloquer les cyberintrusions nuisibles. Les obstacles et les solutions peuvent être difficiles et complexes, et nous devons y travailler.

Certaines peuvent également être simples ; nous voyons déjà des écoles expérimenter des examens oraux pour tester les connaissances d’un étudiant. En abordant ces questions de front, plutôt qu’en faisant l’autruche avec une pause dans la recherche qui serait impossible à appliquer et prête à être exploitée par de mauvais acteurs, les États-Unis se positionneront en tant que leader sur la scène mondiale.

Si l’approche américaine de l’IA est mitigée, d’autres pays semblent s’être engagés dans une course à l’hyper-réglementation. L’UE est sur le point d’adopter une loi radicale sur l’IA qui obligerait les entreprises à demander la permission d’innover. Dans la pratique, cela signifierait que seuls le gouvernement ou les grandes entreprises ayant les moyens financiers et la capacité de s’engager dans le labyrinthe de la certification couvrant la vie privée, la propriété intellectuelle et une multitude d’exigences en matière de protection sociale pourraient développer de nouveaux outils d’IA.

Une étude récente de l’université de Stanford a également montré que le projet de loi européen sur l’IA interdirait tous les grands modèles de langage existants, y compris le GPT-4 d’OpenAI et le Bard de Google. Les législateurs canadiens sont en train de présenter un projet de loi sur l’IA excessivement large qui pourrait étouffer l’innovation de la même manière. Plus inquiétant encore, la Chine cherche rapidement à dominer l’IA civile et militaire grâce à un soutien gouvernemental massif. De plus, elle a une vision différente des droits de l’homme et de la protection de la vie privée qui peut l’aider dans ses efforts en matière d’IA, mais qui est contraire à nos valeurs. Les États-Unis doivent agir pour protéger les citoyens et faire progresser l’innovation en matière d’IA, faute de quoi ils resteront à la traîne.

À quoi cela ressemblerait-il ? Pour commencer, les États-Unis ont besoin d’une loi fédérale préemptive sur la protection de la vie privée. Le patchwork actuel de règles nationales signifie que les données sont traitées différemment chaque fois qu’elles « traversent » une frontière invisible, ce qui est source de confusion et d’obstacles à la mise en conformité pour les petites entreprises. Nous avons besoin d’une loi nationale sur la protection de la vie privée, avec des lignes directrices et des normes claires sur la manière dont les entreprises collectent, utilisent et partagent les données. Cela permettrait également de créer de la transparence pour les consommateurs et de garantir que les entreprises puissent renforcer la confiance à mesure que l’économie numérique se développe.

Nous avons également besoin d’un ensemble de principes sur l’utilisation responsable de l’IA. Bien que je préfère moins de réglementation, la gestion des technologies émergentes telles que l’IA nécessite des règles claires qui définissent comment cette technologie peut être développée et déployée. Alors que de nouvelles innovations en matière d’IA sont dévoilées presque quotidiennement, les législateurs devraient se concentrer sur les garde-fous et les résultats, plutôt que d’essayer d’encadrer des technologies spécifiques.

Les règles devraient également prendre en compte le niveau de risque, en se concentrant sur les systèmes d’IA qui pourraient porter atteinte de manière significative aux droits fondamentaux des Américains ou à l’accès aux services essentiels. Alors que notre gouvernement détermine à quoi ressemble une « bonne politique », l’industrie aura un rôle vital à jouer. La Consumer Technology Association travaille en étroite collaboration avec l’industrie et les décideurs politiques afin d’élaborer des principes unifiés pour l’utilisation de l’IA.

Nous sommes à un moment charnière pour l’avenir d’une technologie étonnante, complexe et conséquente. Nous ne pouvons pas nous permettre de laisser d’autres pays prendre les devants.

IA