Cette semaine dans l’IA : l’éthique de l’IA continue d’être négligée

Cette semaine dans l’IA : l’éthique de l’IA continue d’être négligée

Suivre l’évolution d’un secteur aussi rapide que l’IA n’est pas une mince affaire. En attendant qu’une IA puisse le faire à votre place, voici un récapitulatif pratique des événements récents dans le monde de l’apprentissage automatique, ainsi que des recherches et expériences notables que nous n’avons pas couvertes par elles-mêmes.

Cette semaine, l’actualité de l’IA s’est (enfin !) un peu calmée à l’approche des fêtes de fin d’année. Mais cela ne veut pas dire qu’il y a eu une pénurie de sujets à traiter, une bénédiction et une malédiction pour ce journaliste en manque de sommeil.

Un titre particulier de l’AP a attiré mon attention ce matin : « Les générateurs d’images de l’IA sont entraînés sur des photos explicites d’enfants ». L’essentiel de l’histoire est que LAION, un ensemble de données utilisé pour former de nombreux générateurs d’images d’IA commerciaux et open source populaires, y compris Stable Diffusion et Imagen, contient des milliers d’images d’abus sexuels présumés sur des enfants. Un groupe de surveillance basé à Stanford, le Stanford Internet Observatory, a travaillé avec des organisations caritatives de lutte contre les abus pour identifier le matériel illégal et signaler les liens aux forces de l’ordre.

Aujourd’hui, LAION, une organisation à but non lucratif, a retiré ses données de formation et s’est engagée à supprimer le matériel incriminé avant de le republier. Mais l’incident souligne à quel point les produits d’IA générative sont peu élaborés alors que la pression concurrentielle s’intensifie.

Grâce à la prolifération d’outils de création de modèles d’IA sans code, il devient terriblement facile d’entraîner l’IA générative sur n’importe quel ensemble de données imaginable. C’est une aubaine pour les startups et les géants de la technologie, qui peuvent ainsi lancer de tels modèles. Toutefois, l’abaissement de la barrière à l’entrée s’accompagne de la tentation de mettre de côté l’éthique au profit d’une mise sur le marché accélérée.

L’éthique est difficile, c’est indéniable. Passer au peigne fin les milliers d’images problématiques de LAION, pour prendre l’exemple de cette semaine, ne se fera pas du jour au lendemain. Idéalement, le développement de l’IA dans le respect de l’éthique implique de travailler avec toutes les parties prenantes, y compris les organisations qui représentent des groupes souvent marginalisés et lésés par les systèmes d’IA.

L’industrie regorge d’exemples de décisions de mise sur le marché de l’IA prises en fonction des actionnaires et non des éthiciens. Prenons l’exemple de Bing Chat (aujourd’hui Microsoft Copilot), le chatbot de Microsoft basé sur l’IA pour Bing, qui, lors de son lancement, a comparé un journaliste à Hitler et a insulté son apparence. En octobre, ChatGPT et Bard, le chatbot concurrent de Google, donnaient encore des conseils médicaux dépassés et racistes. Et la dernière version du générateur d’images DALL-E d’OpenAI montre des signes d’anglocentrisme.

Il suffit de dire que la poursuite de la supériorité de l’IA – ou du moins de l’idée que Wall Street se fait de la supériorité de l’IA – cause du tort. L’adoption de la réglementation européenne sur l’IA, qui prévoit des amendes en cas de non-respect de certains garde-fous en matière d’IA, laisse peut-être entrevoir un peu d’espoir. Mais la route est encore longue.

Voici d’autres articles sur l’IA parus ces derniers jours :

A lire aussi  Microsoft veut faire de Windows un meilleur endroit pour les développeurs

Prédictions pour l’IA en 2024 : Devin présente ses prédictions pour l’IA en 2024, en abordant notamment l’impact que l’IA pourrait avoir sur les élections primaires aux États-Unis et l’avenir de l’OpenAI.

Contre la pseudanthropie: Devin a également écrit pour suggérer d’interdire à l’IA d’imiter le comportement humain.

Microsoft Copilot se lance dans la création musicale : Copilot, le chatbot de Microsoft doté d’une intelligence artificielle, peut désormais composer des chansons grâce à une intégration avec l’application musicale Suno de GenAI.

La reconnaissance faciale chez Rite Aid : Rite Aid s’est vu interdire l’utilisation de la technologie de reconnaissance faciale pendant cinq ans après que la Commission fédérale du commerce a constaté que l’utilisation inconsidérée des systèmes de surveillance faciale par le géant américain de la pharmacie avait humilié les clients et mis leurs « informations sensibles en danger ».

L’UE offre des ressources informatiques : L’UE élargit son plan, annoncé en septembre et lancé le mois dernier, visant à soutenir les start-ups locales spécialisées dans l’IA en leur donnant accès à de la puissance de traitement pour l’entraînement des modèles sur les superordinateurs de l’Union.

L’OpenAI donne de nouveaux pouvoirs au conseil d’administration : L’OpenAI étend ses processus de sécurité internes pour contrer la menace de l’IA nuisible. Un nouveau « groupe consultatif sur la sécurité » siégera au-dessus des équipes techniques et fera des recommandations à la direction, et le conseil d’administration s’est vu accorder un droit de veto.

Q&A avec Ken Goldberg de l’UC Berkeley : Pour sa lettre d’information Actuator, Brian s’est entretenu avec Ken Goldberg, professeur à l’université de Berkeley, fondateur d’une start-up et roboticien accompli, pour parler des robots humanoïdes et des grandes tendances de l’industrie de la robotique.

Les DSI prennent leur temps avec l’IA générique : Ron écrit que, bien que les DSI soient sous pression pour fournir le type d’expériences que les gens voient lorsqu’ils jouent avec ChatGPT en ligne, la plupart d’entre eux adoptent une approche délibérée et prudente de l’adoption de la technologie dans l’entreprise.

Les éditeurs de presse poursuivent Google au sujet de l’IA : Un recours collectif déposé par plusieurs éditeurs de presse accuse Google de « siphonner » les contenus d’information par des moyens anticoncurrentiels, en partie grâce à des technologies d’IA telles que Search Generative Experience (SGE) et le chatbot Bard de Google.

OpenAI signe un accord avec Axel Springer : En ce qui concerne les éditeurs, OpenAI a conclu un accord avec Axel Springer, le propriétaire berlinois de publications telles que Business Insider et Politico, afin d’entraîner ses modèles d’IA générative sur le contenu de l’éditeur et d’ajouter les articles récents publiés par Axel Springer à ChatGPT.

Google étend Gemini à d’autres endroits : Google a intégré ses modèles Gemini à un plus grand nombre de ses produits et services, notamment sa plateforme de développement d’IA gérée Vertex AI et AI Studio, l’outil de l’entreprise pour la création de chatbots basés sur l’IA et d’autres expériences de ce type.

Plus d’informations sur l’apprentissage automatique

La recherche la plus folle (et la plus facile à mal interpréter) de ces deux dernières semaines est certainement life2vec, une étude danoise qui utilise d’innombrables points de données dans la vie d’une personne pour prédire comment elle est et quand elle va mourir. En gros !

Visualisation de la cartographie de life2vec de divers concepts et événements pertinents de la vie.

L’étude ne prétend pas à une précision oraculaire (dites cela trois fois plus vite, d’ailleurs), mais vise plutôt à montrer que si notre vie est la somme de nos expériences, ces trajectoires peuvent être extrapolées dans une certaine mesure à l’aide des techniques actuelles d’apprentissage automatique. Entre l’éducation, la formation, le travail, la santé, les loisirs et d’autres paramètres, on peut raisonnablement prédire non seulement si une personne est introvertie ou extravertie, mais aussi comment ces facteurs peuvent influer sur l’espérance de vie. Nous n’en sommes pas encore au stade de la « précriminalité », mais il y a fort à parier que les compagnies d’assurance sont impatientes d’obtenir une licence pour ce travail.

A lire aussi  Spotify préparerait un service "Superpremium" à 19,99$/mois avec un son sans perte, des playlists AI et plus encore...

Une autre grande revendication a été formulée par des scientifiques de la CMU qui ont créé un système appelé Coscientist, un assistant de recherche basé sur le LLM qui peut effectuer une grande partie des tâches de laboratoire de manière autonome. Il est actuellement limité à certains domaines de la chimie, mais tout comme les scientifiques, les modèles de ce type seront des spécialistes.

Gabe Gomes, chercheur principal, a déclaré à Nature : « Le moment où j’ai vu une intelligence non organique capable de planifier, de concevoir et d’exécuter de manière autonome une réaction chimique inventée par l’homme, j’ai été stupéfait. J’ai eu l’impression de vivre un moment inoubliable ». En gros, il utilise un LLM comme le GPT-4, affiné sur des documents de chimie, pour identifier les réactions, les réactifs et les procédures courants et les exécuter. Ainsi, il n’est pas nécessaire de dire à un technicien de laboratoire de synthétiser quatre lots d’un certain catalyseur – l’IA peut le faire, et vous n’avez même pas besoin de lui tenir la main.

Les chercheurs en IA de Google ont également eu une semaine chargée, se plongeant dans quelques domaines frontières intéressants. FunSearch peut faire penser à Google pour les enfants, mais il s’agit en fait de l’abréviation de function search, qui, comme Coscientist, est capable de faire et d’aider à faire des découvertes mathématiques. Il est intéressant de noter que, pour éviter les hallucinations, ce projet (comme d’autres récemment) utilise une paire de modèles d’IA appariés, un peu comme l' »ancienne » architecture GAN. L’un théorise, l’autre évalue.

FunSearch ne va pas faire de nouvelles découvertes révolutionnaires, mais il peut prendre ce qui existe et l’affiner ou le réappliquer à de nouveaux endroits, de sorte qu’une fonction qu’un domaine utilise mais qu’un autre ignore peut être utilisée pour améliorer un algorithme standard de l’industrie.

StyleDrop est un outil pratique pour les personnes qui cherchent à reproduire certains styles par le biais de l’imagerie générative. Le problème (selon les chercheurs) est que si vous avez un style en tête (disons « pastels ») et que vous le décrivez, le modèle aura trop de sous-styles de « pastels » à sa disposition, ce qui rendra les résultats imprévisibles. StyleDrop vous permet de fournir un exemple du style auquel vous pensez, et le modèle se basera sur celui-ci – il s’agit en fait d’une mise au point super efficace.

Crédits photographiques : Google

L’article de blog et le document montrent qu’il est assez robuste, appliquant un style de n’importe quelle image, qu’il s’agisse d’une photo, d’une peinture, d’un paysage urbain ou d’un portrait de chat, à n’importe quel autre type d’image, même l’alphabet (notoirement difficile pour une raison ou une autre).

A lire aussi  Google DeepMind crée une nouvelle organisation axée sur la sécurité de l'IA

Google progresse également dans le domaine de la vidéo générative avec VideoPoet, qui utilise une base LLM (comme tout ce qui se fait de nos jours… qu’allez-vous utiliser d’autre ?) pour effectuer un certain nombre de tâches vidéo, transformer du texte ou des images en vidéo, étendre ou styliser des vidéos existantes, etc. Le défi ici, comme chaque projet le montre clairement, n’est pas simplement de faire une série d’images qui se rapportent les unes aux autres, mais de les rendre cohérentes sur des périodes plus longues (comme plus d’une seconde) et avec des mouvements et des changements importants.

Crédits photographiques : Google

VideoPoet fait avancer les choses, semble-t-il, même si, comme vous pouvez le voir, les résultats sont encore assez bizarres. Mais c’est ainsi que ces choses progressent : d’abord elles sont inadéquates, puis elles sont bizarres, puis elles deviennent étranges. On peut supposer qu’elles deviennent étranges à un moment donné, mais personne n’y est encore parvenu.

D’un point de vue pratique, des chercheurs suisses ont appliqué des modèles d’intelligence artificielle à la mesure de la neige. Normalement, on s’appuie sur les stations météorologiques, mais celles-ci peuvent être très éloignées les unes des autres et nous disposons de toutes ces belles données satellitaires, n’est-ce pas ? C’est vrai. L’équipe de l’ETHZ a donc pris des images satellites publiques de la constellation Sentinel-2, mais comme l’explique Konrad Schindler, chef de file, « le simple fait de regarder les parties blanches sur les images satellites ne nous indique pas immédiatement l’épaisseur de la neige ».

Ils ont donc intégré des données de terrain pour l’ensemble du pays provenant de l’Office fédéral de topographie (comme l’USGS) et ont entraîné le système à faire des estimations non seulement sur la base des parties blanches des images, mais aussi sur la base de données de terrain et de tendances telles que les schémas de fonte. La technologie qui en résulte est commercialisée par ExoLabs, que je m’apprête à contacter pour en savoir plus.

Stanford nous met en garde : aussi puissantes que soient les applications mentionnées ci-dessus, aucune d’entre elles ne fait appel à des préjugés humains. Lorsqu’il s’agit de santé, cela devient soudain un gros problème, et c’est dans le domaine de la santé qu’une multitude d’outils d’IA sont testés. Des chercheurs de Stanford ont montré que les modèles d’IA propagent de « vieux tropes raciaux médicaux ». Le GPT-4 ne sait pas si quelque chose est vrai ou non, il peut donc répéter de vieilles affirmations réfutées sur des groupes, par exemple que les Noirs ont une capacité pulmonaire plus faible. Non ! Restez vigilants si vous travaillez avec un modèle d’IA dans le domaine de la santé et de la médecine.

Enfin, voici une histoire courte écrite par Bard à partir d’un scénario de tournage et d’invites, rendue par VideoPoet. Attention, Pixar !

IA