Cette semaine dans l’IA : Expériences, départs à la retraite et événements d’extinction

Cette semaine dans l’IA : Expériences, départs à la retraite et événements d’extinction

Suivre l’évolution d’un secteur aussi rapide que l’IA n’est pas une mince affaire. En attendant qu’une IA puisse le faire à votre place, voici un récapitulatif pratique des événements de la semaine dernière dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes par elles-mêmes.

YouTube a commencé à expérimenter des résumés de vidéos générés par l’IA sur les pages de visionnage et de recherche, mais seulement pour un nombre limité de vidéos et de spectateurs en langue anglaise.

Il est certain que ces résumés pourraient être utiles à la découverte et à l’accessibilité. Tous les créateurs de vidéos ne peuvent pas se donner la peine de rédiger une description. Mais je m’inquiète du risque d’erreurs et de préjugés intégrés par l’IA.

Même les meilleurs modèles d’IA ont aujourd’hui tendance à « halluciner ». OpenAI admet librement que son dernier modèle de génération et de résumé de texte, GPT-4, commet des erreurs majeures de raisonnement et invente des « faits ». Patrick Hymel, entrepreneur dans le secteur des technologies de la santé, a écrit sur la manière dont GPT-4 invente des références, des faits et des chiffres sans aucun lien identifiable avec des sources réelles. Fast Company a testé la capacité de ChatGPT à résumer des articles et l’a trouvée… assez mauvaise.

On peut imaginer que les résumés vidéo générés par l’IA s’égarent, étant donné le défi supplémentaire que représente l’analyse du contenu des vidéos. Il est difficile d’évaluer la qualité des résumés générés par l’IA de YouTube. Mais il est bien établi que l’IA n’est pas très douée pour les résumés texte contenu.

YouTube reconnaît subtilement que les descriptions générées par l’IA ne remplacent pas les descriptions réelles. Sur la page d’assistance, il est écrit : « Nous espérons que ces résumés vous seront utiles et vous donneront un aperçu rapide du contenu d’une vidéo, mais ils ne remplacent pas les descriptions des vidéos (qui sont rédigées par les créateurs !) ».

Espérons que la plateforme ne lance pas cette fonctionnalité trop rapidement. Mais au vu des lancements de produits d’intelligence artificielle de Google ces derniers temps (voir sa tentative de rivaliser avec ChatGPT, Bard), je ne suis pas très confiant.

Voici d’autres articles sur l’IA parus ces derniers jours :

Dario Amodei vient à Disrupt : Nous interrogerons le cofondateur d’Anthropic sur ce que c’est que d’avoir autant d’argent. Et aussi de l’IA.

Google Search se dote de nouvelles fonctionnalités d’IA : Google ajoute des images et des vidéos contextuelles à son Search Generative Experiment (SGE), la fonction de recherche générative alimentée par l’IA annoncée lors de la conférence I/O du mois de mai. Grâce à ces mises à jour, SGE affiche désormais des images ou des vidéos en rapport avec la requête de recherche. L’entreprise serait également en train de réorienter son projet Assistant vers une IA générative de type Bard.

Microsoft tue Cortana : En écho aux événements de la série de jeux Halo, dont le nom a été tiré, Cortana a été détruite. Heureusement, il ne s’agissait pas d’une IA générale dévoyée, mais d’une assistante numérique de second rang dont l’heure était venue.

Meta adopte la musique d’IA générative : Meta a annoncé cette semaine AudioCraft, un cadre permettant de générer ce qu’il décrit comme un son et une musique de « haute qualité » et « réalistes » à partir de courtes descriptions textuelles, ou messages-guides.

Google tire la cuisine d’essai de l’IA : Google a retiré son application AI Test Kitchen du Play Store et de l’App Store pour se concentrer uniquement sur la plateforme web. La société a lancé l’expérience AI Test Kitchen l’année dernière pour permettre aux utilisateurs d’interagir avec des projets alimentés par différents modèles d’IA tels que LaMDA 2.

Les robots apprennent à partir de petites quantités de données : En ce qui concerne Google, DeepMind, le laboratoire de recherche en IA du géant technologique, a mis au point un système qui, selon lui, permet aux robots de transférer efficacement des concepts appris sur des ensembles de données relativement restreints à des scénarios différents.

Kickstarter édicte de nouvelles règles autour de l’IA générative : Kickstarter a annoncé cette semaine que les projets sur sa plateforme utilisant des outils d’IA pour générer du contenu seront tenus de divulguer la manière dont le propriétaire du projet prévoit d’utiliser le contenu de l’IA dans son travail. En outre, Kickstarter exige que les nouveaux projets impliquant le développement d’une technologie d’IA fournissent des informations détaillées sur les sources de données de formation que le propriétaire du projet a l’intention d’utiliser.

La Chine s’attaque à l’IA générative : Plusieurs applications d’IA générative ont été retirées de l’App Store d’Apple en Chine cette semaine, grâce à de nouvelles règles qui obligeront les applications d’IA opérant en Chine à obtenir une licence administrative.

Stable Diffusion lance un nouveau modèle : Stability AI a lancé Stable Diffusion XL 1.0, un modèle texte-image que la société décrit comme sa version « la plus avancée » à ce jour. Stability affirme que les images du modèle sont « plus vibrantes » et les couleurs « précises » et qu’elles présentent un meilleur contraste, des ombres et un meilleur éclairage par rapport aux œuvres d’art de son prédécesseur.

L’avenir de l’IA passe par la vidéo : Ou du moins une grande partie de l’activité de l’IA générative, comme le dit Haje.

AI.com est passé d’OpenAI à X.ai : Il est extrêmement difficile de savoir s’il a été vendu, loué ou s’il fait partie d’une sorte de projet en cours, mais le domaine convoité de deux lettres (d’une valeur probable de 5 à 10 millions de dollars) pointe désormais vers l’organisme de recherche X.ai d’Elon Musk plutôt que vers l’interface ChatGPT.

Autres apprentissages automatiques

L’IA fait son chemin dans d’innombrables domaines scientifiques, comme j’ai l’occasion de le montrer ici régulièrement, mais on pourrait vous pardonner de ne pas pouvoir citer plus de quelques applications spécifiques à l’avance. Cette revue de la littérature parue dans Nature est la plus complète que vous puissiez trouver sur les domaines et les méthodes où l’IA prend effet, ainsi que sur les progrès qui les ont rendus possibles. Malheureusement, l’article est payant, mais vous pouvez probablement trouver un moyen d’en obtenir une copie.

Un examen plus approfondi du potentiel de l’IA pour améliorer la lutte mondiale contre les maladies infectieuses peut être trouvé ici à Science, et quelques idées à retenir dans le résumé d’UPenn. Il est intéressant de noter que les modèles construits pour prédire les interactions médicamenteuses pourraient également aider à « démêler les interactions complexes entre les organismes infectieux et le système immunitaire de l’hôte ». La pathologie des maladies peut être ridiculement compliquée, c’est pourquoi les épidémiologistes et les médecins apprécieront probablement toute l’aide qu’ils pourront obtenir.

Astéroïde repéré, madame.

Un autre exemple intéressant, avec la réserve que tous les algorithmes ne devraient pas être qualifiés d’IA, est ce travail multi-institutionnel d’identification algorithmique d’astéroïdes « potentiellement dangereux ». Les relevés du ciel génèrent des tonnes de données et les trier pour trouver des signaux faibles comme les astéroïdes est un travail difficile qui se prête très bien à l’automatisation. L’astéroïde SF289 de 600 pieds 2022 a été découvert lors d’un test de l’algorithme sur les données d’ATLAS. « Ce n’est qu’un petit avant-goût de ce qui nous attend à l’Observatoire Rubin dans moins de deux ans, lorsque HelioLinc3D découvrira un objet comme celui-ci chaque nuit », a déclaré Mario Jurić, de l’Université de Washington. Nous sommes impatients !

Le monde de la recherche sur l’IA est entouré d’une sorte de halo, celui de la recherche en cours. sur L’IA – comment elle fonctionne et pourquoi. En général, ces études sont assez difficiles à décrypter pour les non-spécialistes, et celle des chercheurs de l’ETHZ ne fait pas exception à la règle. Mais l’auteur principal, Johannes von Oswald, a également accordé une interview dans laquelle il explique certains concepts en termes simples. Elle vaut la peine d’être lue si vous êtes curieux de connaître le processus d' »apprentissage » qui se produit à l’intérieur de modèles comme ChatGPT.

Il est également important d’améliorer le processus d’apprentissage et, comme l’ont constaté ces chercheurs de Duke, la réponse n’est pas toujours « plus de données ». En fait, plus de données peuvent entraver un modèle d’apprentissage automatique, a déclaré Daniel Reker, professeur à Duke : « C’est comme si vous entraîniez un algorithme à distinguer des photos de chiens et de chats, mais que vous lui donniez un milliard de photos de chiens à apprendre et seulement cent photos de chats. L’algorithme deviendra tellement doué pour identifier les chiens que tout commencera à ressembler à un chien et il oubliera tout le reste du monde ». Leur approche fait appel à une technique d' »apprentissage actif » qui identifie ces faiblesses dans l’ensemble de données et s’avère plus efficace en utilisant seulement 1/10 des données.

Une étude de l’University College London a montré que les gens n’étaient capables de distinguer un discours réel d’un discours synthétique que dans 73 % des cas, tant en anglais qu’en mandarin. Il est probable que nous nous améliorerons tous dans ce domaine, mais à court terme, la technologie dépassera probablement notre capacité à la détecter. Restez bien au chaud.

IA