Un groupe de consommateurs demande à l’UE d’étudier d’urgence « les risques de l’IA générative ».

Un groupe de consommateurs demande à l’UE d’étudier d’urgence « les risques de l’IA générative ».

Les régulateurs européens sont à la croisée des chemins quant à la manière dont l’IA sera réglementée – et finalement utilisée commercialement et non commercialement – dans la région. Aujourd’hui, le plus grand groupe de consommateurs de l’UE, le BEUC, a présenté sa propre position : arrêtez de traîner les pieds et  » lancez des enquêtes urgentes sur les risques de l’IA générative  » dès maintenant, a-t-il déclaré.

« L’IA générative telle que ChatGPT a ouvert toutes sortes de possibilités pour les consommateurs, mais il existe de sérieuses inquiétudes quant à la manière dont ces systèmes peuvent tromper, manipuler et nuire aux gens. Ils peuvent également être utilisés pour diffuser de la désinformation, perpétuer les préjugés existants qui amplifient la discrimination, ou être utilisés pour la fraude « , a déclaré Ursula Pachl, directrice générale adjointe du BEUC, dans un communiqué. « Nous appelons les autorités chargées de la sécurité, des données et de la protection des consommateurs à ouvrir des enquêtes dès maintenant et à ne pas attendre que toutes sortes de préjudices aient été subis par les consommateurs pour prendre des mesures. Ces lois s’appliquent à tous les produits et services, qu’ils soient alimentés par l’IA ou non, et les autorités doivent les faire respecter. »

Le BEUC, qui représente des organisations de consommateurs dans 13 pays de l’UE, a lancé cet appel pour coïncider avec un rapport publié aujourd’hui par l’un de ses membres, Forbrukerrådet, en Norvège.

La position du rapport norvégien est sans équivoque : L’IA cause des préjudices aux consommateurs (le titre du rapport dit tout : « Ghost in the Machine : addressing the consumer harms of generative AI ») et pose de nombreux problèmes.

Alors que certains technologues ont tiré la sonnette d’alarme sur l’IA en tant qu’instrument d’extinction de l’humanité, le débat en Europe a davantage porté sur les incidences de l’IA dans des domaines tels que l’accès équitable aux services, la désinformation et la concurrence.

Le rapport souligne, par exemple, que « certains développeurs d’IA, y compris les grandes entreprises technologiques » ont fermé leurs systèmes à tout contrôle externe, ce qui rend difficile de voir comment les données sont collectées ou comment les algorithmes fonctionnent ; le fait que certains systèmes produisent des informations incorrectes aussi allègrement que des résultats corrects, sans que les utilisateurs sachent de quoi il s’agit ; l’IA qui est construite pour tromper ou manipuler les utilisateurs ; la question de la partialité basée sur les informations qui sont introduites dans un modèle d’IA particulier ; et la sécurité, en particulier la façon dont l’IA pourrait être utilisée pour escroquer les gens ou enfreindre les systèmes.

Bien que la publication du ChatGPT d’OpenAI ait définitivement placé l’IA et le potentiel de sa portée dans la conscience du public, l’attention portée par l’UE à l’impact de l’IA n’est pas nouvelle. Elle a commencé à débattre des questions de « risque » en 2020, bien que ces efforts initiaux aient été présentés comme un travail de fond visant à accroître la « confiance » dans la technologie.

En 2021, elle parlait plus précisément d’applications d’IA à « haut risque », et quelque 300 organisations se sont regroupées pour plaider en faveur de l’interdiction totale de certaines formes d’IA.

Les sentiments sont devenus plus critiques au fil du temps, au fur et à mesure que l’UE élabore ses lois régionales. La semaine dernière, la responsable de la concurrence de l’UE, Margarethe Vestager, a notamment évoqué les risques de partialité de l’IA lorsqu’elle est appliquée à des domaines critiques tels que les services financiers (hypothèques et autres demandes de prêt).

Ses commentaires sont intervenus juste après l’approbation par l’UE de sa loi officielle sur l’IA, qui divise provisoirement les applications de l’IA en catégories telles que le risque inacceptable, le risque élevé et le risque limité, couvrant un large éventail de paramètres pour déterminer dans quelle catégorie elles se situent.

La loi sur l’IA, lorsqu’elle sera mise en œuvre, sera la première tentative au monde de codifier une certaine forme de compréhension et d’application juridique de la manière dont l’IA est utilisée à des fins commerciales et non commerciales.

La prochaine étape du processus consistera pour l’UE à s’engager avec les différents pays de l’UE pour définir la forme finale que prendra la loi – en particulier pour identifier ce qui (et qui) entrera dans ses catégories, et ce qui n’y entrera pas. La question est de savoir si les différents pays sont prêts à se mettre d’accord. L’UE souhaite finaliser ce processus d’ici la fin de l’année.

« Il est essentiel que l’UE rende cette loi aussi étanche que possible pour protéger les consommateurs », a déclaré Mme Pachl dans son communiqué. « Tous les systèmes d’IA, y compris l’IA générative, doivent faire l’objet d’un examen public et les autorités publiques doivent réaffirmer leur contrôle sur ces systèmes. Les législateurs doivent exiger que les résultats de tout système d’IA générative soient sûrs, équitables et transparents pour les consommateurs. »

Le BEUC est connu pour son intervention dans les moments critiques et pour ses appels influents qui reflètent la direction que les régulateurs prennent en fin de compte. Il a par exemple été l’une des premières voix à s’élever contre Google dans le cadre des enquêtes antitrust à long terme menées contre le géant de la recherche et de la téléphonie mobile, intervenant des années avant que des mesures ne soient prises à l’encontre de l’entreprise. Cet exemple souligne toutefois une autre chose : le débat sur l’IA et ses impacts, et le rôle que la réglementation pourrait jouer à cet égard, sera probablement de longue haleine.

IA