Google enregistre par défaut vos conversations avec Gemini pendant des années

Google enregistre par défaut vos conversations avec Gemini pendant des années

Ne tapez rien dans Gemini, la famille d’applications GenAI de Google, qui soit incriminant ou que vous ne voudriez pas que quelqu’un d’autre voie.

C’est l’avertissement (en quelque sorte) lancé aujourd’hui par Google, qui, dans un nouveau document d’assistance, décrit la manière dont il recueille les données des utilisateurs de ses applications de chatbot Gemini pour le web, Android et iOS.

Google indique que des annotateurs humains lisent, étiquettent et traitent régulièrement les conversations avec Gemini – même si ces conversations sont « déconnectées » des comptes Google – afin d’améliorer le service. (Il n’est pas précisé si ces annotateurs sont internes ou externalisés, ce qui pourrait avoir une incidence sur la sécurité des données ; Google ne le dit pas). Ces conversations sont conservées jusqu’à trois ans, avec des « données connexes » telles que les langues et les appareils utilisés par l’utilisateur, ainsi que sa localisation.

Désormais, Google offre aux utilisateurs certains de contrôler quelles données pertinentes pour Gemini sont conservées – et comment.

La désactivation de l’activité Gemini Apps dans le tableau de bord Mon activité de Google (activée par défaut) empêche l’enregistrement des futures conversations avec Gemini dans un compte Google pour examen (ce qui signifie que la période de trois ans ne s’appliquera pas). Les invites individuelles et les conversations avec Gemini peuvent quant à elles être supprimées à partir de l’écran Activité Apps Gemini.

Google précise toutefois que même lorsque l’activité des applications Gemini est désactivée, les conversations Gemini seront sauvegardées sur un compte Google pendant 72 heures afin de « maintenir la sécurité des applications Gemini et d’améliorer les applications Gemini ».

A lire aussi  La société de capital-risque "alimentée par l'IA" Vela sort de la clandestinité avec 25 millions de dollars sous gestion

« Veuillez ne pas saisir d’informations confidentielles dans vos conversations ni de données que vous ne voudriez pas qu’un évaluateur voie ou que Google utilise pour améliorer nos produits, nos services et nos technologies d’apprentissage automatique », écrit Google.

Pour être honnête, les règles de collecte et de conservation des données de GenAI de Google ne diffèrent pas tellement de celles de ses rivaux. OpenAI, par exemple, enregistre tous les chats avec ChatGPT pendant 30 jours, que la fonction d’historique des conversations de ChatGPT soit désactivée ou non, sauf dans les cas où l’utilisateur a souscrit à un plan d’entreprise assorti d’une politique de conservation des données personnalisée.

Mais la politique de Google illustre les défis inhérents à l’équilibre entre la protection de la vie privée et le développement de modèles GenAI qui se nourrissent des données de l’utilisateur pour s’améliorer.

Les politiques libérales de conservation des données de la GenAI ont récemment mis les fournisseurs dans l’eau chaude avec les autorités de régulation.

L’été dernier, la FTC a demandé à OpenAI des informations détaillées sur la manière dont l’entreprise contrôle les données utilisées pour l’entraînement de ses modèles, y compris les données des consommateurs, et sur la manière dont ces données sont protégées lorsqu’elles sont consultées par des tiers. À l’étranger, l’autorité italienne de régulation de la protection des données a déclaré qu’OpenAI ne disposait pas d’une « base juridique » pour la collecte et le stockage massifs de données à caractère personnel en vue de l’entraînement de ses modèles GenAI.

Alors que les outils de GenAI prolifèrent, les organisations se méfient de plus en plus des risques liés à la protection de la vie privée.

A lire aussi  Il n'est pas nécessaire de réinventer la roue pour réglementer l'IA de manière responsable

Une enquête récente de Cisco a révélé que 63 % des entreprises ont fixé des limites aux données pouvant être saisies dans les outils de GenAI, tandis que 27 % ont complètement interdit la GenAI. La même enquête a révélé que 45 % des employés ont saisi des données « problématiques » dans les outils de GenAI, y compris des informations sur les employés et des fichiers non publics sur leur employeur.

OpenAI, Microsoft, Amazon, Google et d’autres proposent des produits GenAI destinés aux entreprises qui souhaitent explicitement ne ne conservent pas les données pendant un certain temps, que ce soit à des fins de formation de modèles ou à d’autres fins. Cependant, comme c’est souvent le cas, ce sont les consommateurs qui en pâtissent.

IA