OpenAI forme une nouvelle équipe pour étudier la sécurité des enfants

OpenAI forme une nouvelle équipe pour étudier la sécurité des enfants

Sous l’œil attentif des activistes – et des parents – OpenAI a formé une nouvelle équipe chargée d’étudier les moyens d’empêcher les enfants d’utiliser ses outils d’intelligence artificielle à mauvais escient ou d’en abuser.

Dans une nouvelle offre d’emploi sur sa page carrière, OpenAI révèle l’existence d’une équipe chargée de la sécurité des enfants, qui, selon l’entreprise, travaille avec les groupes chargés de la politique de la plateforme, du droit et des enquêtes au sein d’OpenAI ainsi qu’avec des partenaires extérieurs pour gérer les « processus, les incidents et les examens » relatifs aux utilisateurs mineurs.

L’équipe cherche actuellement à embaucher un spécialiste de l’application de la sécurité des enfants, qui sera chargé d’appliquer les politiques d’OpenAI dans le contexte du contenu généré par l’IA et de travailler sur les processus d’examen liés au contenu « sensible » (vraisemblablement lié aux enfants).

Les fournisseurs de technologie d’une certaine taille consacrent une bonne partie de leurs ressources à se conformer à des lois telles que la Children’s Online Privacy Protection Rule des États-Unis, qui impose des contrôles sur ce que les enfants peuvent – et ne peuvent pas – accéder sur le web, ainsi que sur les types de données que les entreprises peuvent collecter sur eux. Le fait qu’OpenAI engage des experts en sécurité des enfants n’est donc pas une surprise totale, en particulier si l’entreprise s’attend à avoir un jour une base importante d’utilisateurs mineurs. (Les conditions d’utilisation actuelles d’OpenAI exigent le consentement des parents pour les enfants âgés de 13 à 18 ans et interdisent l’utilisation pour les enfants de moins de 13 ans).

Mais la formation de la nouvelle équipe, qui intervient quelques semaines après qu’OpenAI a annoncé un partenariat avec Common Sense Media pour collaborer à l’élaboration de directives d’IA adaptées aux enfants et qu’elle a décroché son premier client dans le secteur de l’éducation, suggère également une certaine prudence de la part d’OpenAI, qui craint d’aller à l’encontre des politiques relatives à l’utilisation de l’IA par les mineurs – et d’avoir une mauvaise presse.

Les enfants et les adolescents se tournent de plus en plus vers les outils de GenAI pour obtenir de l’aide, non seulement pour leurs travaux scolaires, mais aussi pour leurs problèmes personnels. Selon un sondage du Center for Democracy and Technology, 29 % des enfants déclarent avoir utilisé ChatGPT pour gérer leur anxiété ou leurs problèmes de santé mentale, 22 % pour des problèmes avec leurs amis et 16 % pour des conflits familiaux.

Certains considèrent qu’il s’agit d’un risque croissant.

L’été dernier, les écoles et les universités se sont empressées d’interdire ChatGPT par crainte de plagiat et de désinformation. Depuis, certains sont revenus sur leur décision. Mais tous ne sont pas convaincus du potentiel positif de la GenAI, comme en témoignent des enquêtes telles que celle du Safer Internet Centre du Royaume-Uni, qui révèle que plus de la moitié des enfants (53 %) déclarent avoir vu des jeunes de leur âge utiliser la GenAI de manière négative, par exemple en créant de fausses informations crédibles ou des images utilisées pour contrarier quelqu’un.

En septembre, OpenAI a publié une documentation pour ChatGPT dans les salles de classe avec des invites et une FAQ pour offrir des conseils aux éducateurs sur l’utilisation de GenAI en tant qu’outil d’enseignement. Dans l’un des articles de soutien, OpenAI reconnaît que ses outils, en particulier ChatGPT, « peuvent produire des résultats qui ne conviennent pas à tous les publics ou à tous les âges » et conseille la « prudence » en cas d’exposition à des enfants – même ceux qui remplissent les conditions d’âge.

Les appels à des lignes directrices sur l’utilisation de la GenAI par les enfants se multiplient.

L’Organisation des Nations unies pour l’éducation, la science et la culture (UNESCO) a demandé à la fin de l’année dernière aux gouvernements de réglementer l’utilisation de l’IA générative dans l’éducation, notamment en fixant des limites d’âge pour les utilisateurs et des garde-fous pour la protection des données et de la vie privée des utilisateurs. « L’IA générative peut être une formidable opportunité pour le développement humain, mais elle peut aussi causer des dommages et des préjudices », a déclaré Audrey Azoulay, directrice générale de l’UNESCO, dans un communiqué de presse. « Elle ne peut pas être intégrée dans l’éducation sans l’engagement du public et sans les garanties et réglementations nécessaires de la part des gouvernements. »

IA