Cette semaine dans l’IA : OpenAI trouve un partenaire dans l’enseignement supérieur

Cette semaine dans l’IA : OpenAI trouve un partenaire dans l’enseignement supérieur

Suivre l’évolution d’un secteur aussi rapide que l’IA n’est pas une mince affaire. En attendant qu’une IA puisse le faire à votre place, voici un récapitulatif pratique des événements récents dans le monde de l’apprentissage automatique, ainsi que des recherches et expériences notables que nous n’avons pas couvertes par elles-mêmes.

Cette semaine dans l’IA, OpenAI a signé avec son premier client de l’enseignement supérieur : Arizona State University.

L’ASU collaborera avec OpenAI pour mettre ChatGPT, le chatbot d’OpenAI alimenté par l’IA, à la disposition des chercheurs, du personnel et de la faculté de l’université – en organisant un défi ouvert en février pour inviter la faculté et le personnel à soumettre des idées sur les façons d’utiliser ChatGPT.

L’accord entre l’OpenAI et l’ASU illustre l’évolution des opinions sur l’IA dans l’enseignement, alors que la technologie progresse plus vite que les programmes d’études. L’été dernier, les écoles et les universités se sont empressées d’interdire ChatGPT par crainte du plagiat et de la désinformation. Depuis, certains sont revenus sur leur décision, tandis que d’autres ont commencé à organiser des ateliers sur les outils de GenAI et leur potentiel pour l’apprentissage.

Le débat sur le rôle de la GenAI dans l’éducation n’est pas près d’être clos. Mais – pour ce que cela vaut – je me trouve de plus en plus dans le camp des partisans.

Oui, la GenAI est un mauvais résumé. Elle est biaisée et toxique. Il invente des choses. Mais il peut aussi être utilisé à bon escient.

Imaginez comment un outil comme ChatGPT pourrait aider les élèves qui ont du mal à faire leurs devoirs. Il pourrait expliquer un problème de mathématiques étape par étape ou générer un plan de rédaction. Il pourrait aussi faire apparaître la réponse à une question qui prendrait beaucoup plus de temps à trouver sur Google.

On peut raisonnablement s’inquiéter de la tricherie – ou du moins de ce qui pourrait être considéré comme de la tricherie dans le cadre des programmes d’études d’aujourd’hui. J’ai entendu parler d’étudiants, en particulier d’étudiants de l’enseignement supérieur, qui utilisaient ChatGPT pour rédiger de grandes parties d’articles et de questions à développement pour les examens à domicile.

Le problème n’est pas nouveau : les services payants de rédaction d’essais existent depuis longtemps. Mais ChatGPT abaisse considérablement la barrière à l’entrée, affirment certains éducateurs.

Certaines données suggèrent que ces craintes sont exagérées. Mais si l’on met cela de côté pour un moment, il faut prendre du recul et se demander ce qui pousse les élèves à tricher en premier lieu. Les élèves sont souvent récompensés pour leurs notes, et non pour leurs efforts ou leur compréhension. La structure des incitations est faussée. Faut-il s’étonner alors que les enfants considèrent les devoirs scolaires comme des cases à cocher plutôt que comme des occasions d’apprendre ?

Laissons donc les élèves utiliser la GenAI et laissons les éducateurs expérimenter des moyens de tirer parti de cette nouvelle technologie pour atteindre les élèves là où ils se trouvent. Je n’ai pas beaucoup d’espoir quant à une réforme radicale de l’éducation. Mais peut-être que la GenAI servira de tremplin à des plans de cours qui enthousiasmeront les enfants pour des sujets qu’ils n’auraient jamais explorés auparavant.

A lire aussi  L'IA pourrait-elle être l'étincelle qui mettra fin à l'épidémie d'opioïdes ?

Voici d’autres articles sur l’IA parus ces derniers jours :

Le tuteur de lecture de Microsoft : Cette semaine, Microsoft a mis gratuitement à la disposition de toute personne disposant d’un compte Microsoft Reading Coach, son outil d’IA qui propose aux apprenants un entraînement personnalisé à la lecture.

Transparence algorithmique dans la musique : Les régulateurs de l’UE demandent que des lois soient adoptées pour imposer une plus grande transparence algorithmique aux plateformes de diffusion de musique en continu. Elles souhaitent également s’attaquer à la musique générée par l’IA et aux « deepfakes ».

Les robots de la NASA : La NASA a récemment présenté une structure robotique auto-assemblée qui, selon Devin, pourrait devenir un élément essentiel des déplacements hors de la planète.

Samsung Galaxy, désormais doté d’une IA : Lors du lancement du Galaxy S24 de Samsung, l’entreprise a présenté les différentes façons dont l’IA pouvait améliorer l’expérience du smartphone, notamment par la traduction en direct des appels, la suggestion de réponses et d’actions et une nouvelle façon d’effectuer des recherches sur Google en utilisant des gestes.

Le solveur géométrique de DeepMind : DeepMind, le laboratoire de recherche et développement en IA de Google, a dévoilé cette semaine AlphaGeometry, un système d’IA qui, selon le laboratoire, peut résoudre autant de problèmes de géométrie que la moyenne des médaillés d’or des Olympiades internationales de mathématiques.

OpenAI et crowdsourcing : Dans d’autres nouvelles d’OpenAI, la startup forme une nouvelle équipe, Collective Alignment, pour mettre en œuvre les idées du public sur la façon de garantir que ses futurs modèles d’IA « s’alignent sur les valeurs de l’humanité ». Parallèlement, elle modifie sa politique afin d’autoriser les applications militaires de sa technologie. (En parlant de messages contradictoires)

Un plan Pro pour Copilot : Microsoft a lancé un plan payant axé sur le consommateur pour Copilot, la marque ombrelle pour son portefeuille de technologies génératrices de contenu alimentées par l’IA, et a assoupli les conditions d’éligibilité pour les offres Copilot au niveau de l’entreprise. De nouvelles fonctionnalités ont également été lancées pour les utilisateurs gratuits, notamment une application Copilot pour smartphone.

Modèles trompeurs : La plupart des humains apprennent à tromper d’autres humains. Les modèles d’IA peuvent-ils donc apprendre la même chose ? Oui, semble-t-il, et, chose terrifiante, ils sont exceptionnellement doués pour cela, selon une nouvelle étude de la startup d’IA Anthropic.

Démonstration de robotique mise en scène par Tesla : Le robot humanoïde Optimus de Tesla, conçu par Elon Musk, est en train de faire d’autres choses – cette fois-ci, il plie un t-shirt sur une table dans un centre de développement. Mais il s’avère que le robot est loin d’être autonome à ce stade.

A lire aussi  Nouvelle règle proposée : Toutes les productions de l'IA doivent rimer

Plus d’informations sur l’apprentissage automatique

L’un des freins à l’élargissement des applications telles que l’analyse de satellites par l’IA est la nécessité d’entraîner les modèles à reconnaître ce qui peut être une forme ou un concept assez ésotérique. Identifier le contour d’un bâtiment : facile. Identifier les champs de débris après une inondation : pas si facile ! Des chercheurs suisses de l’EPFL espèrent faciliter cette tâche grâce à un programme appelé METEOR.

Crédits d’images : EPFL

« Le problème dans les sciences de l’environnement est qu’il est souvent impossible d’obtenir un ensemble de données suffisamment important pour former des programmes d’intelligence artificielle répondant à nos besoins de recherche », a déclaré Marc Rußwurm, l’un des responsables du projet. Leur nouvelle structure d’entraînement permet d’entraîner un algorithme de reconnaissance à une nouvelle tâche avec seulement quatre ou cinq images représentatives. Les résultats sont comparables à ceux de modèles formés sur un nombre beaucoup plus important de données. Leur objectif est de faire passer le système du laboratoire au produit avec une interface utilisateur permettant à des personnes ordinaires (c’est-à-dire des chercheurs non spécialisés dans l’intelligence artificielle) de l’utiliser. Vous pouvez lire l’article qu’ils ont publié ici.

Dans l’autre sens, la création d’images fait l’objet d’intenses recherches, car une méthode efficace pourrait réduire la charge de calcul des plates-formes d’IA générative. La méthode la plus courante est la diffusion, qui transforme progressivement une source de bruit pur en une image cible. Le laboratoire national de Los Alamos a mis au point une nouvelle approche, appelée Blackout Diffusion, qui part d’une image noire pure.

Le bruit n’est donc plus nécessaire au départ, mais la véritable avancée réside dans le fait que le cadre se déroule dans des « espaces discrets » plutôt que continus, ce qui réduit considérablement la charge de calcul. On dit que les performances sont bonnes et que le coût est moindre, mais on est encore loin d’une diffusion à grande échelle. Je ne suis pas qualifié pour évaluer l’efficacité de cette approche (les mathématiques me dépassent), mais les laboratoires nationaux n’ont pas tendance à faire de l’agitation sans raison. Je demanderai plus d’informations aux chercheurs.

Les modèles d’IA se multiplient dans toutes les sciences naturelles, où leur capacité à trier le signal du bruit permet à la fois de produire de nouvelles connaissances et d’économiser des heures de saisie de données par des étudiants diplômés.

L’Australie applique la technologie de détection des incendies de forêt de Pano AI à son « Triangle vert », une importante région forestière. Il s’agit d’une technologie qui pourrait non seulement contribuer à prévenir les incendies, mais aussi fournir des données précieuses aux autorités chargées de la gestion des forêts et des ressources naturelles. Chaque minute compte en cas d’incendie de forêt (ou de feu de brousse, comme on dit là-bas), et les notifications précoces peuvent faire la différence entre des dizaines et des milliers d’hectares de dégâts.

Réduction du pergélisol mesurée par l’ancien modèle, à gauche, et par le nouveau modèle, à droite.

Los Alamos reçoit une deuxième mention (je viens de m’en rendre compte en relisant mes notes) car ils travaillent également sur un nouveau modèle d’IA pour estimer le déclin du pergélisol. Les modèles existants ont une faible résolution, prédisant les niveaux de pergélisol par morceaux d’environ un tiers de mile carré. C’est certainement utile, mais avec plus de détails, on obtient des résultats moins trompeurs pour des zones qui peuvent sembler être constituées à 100 % de pergélisol à grande échelle, mais qui sont clairement moins que cela lorsqu’on y regarde de plus près. À mesure que le changement climatique progresse, ces mesures doivent être exactes !

A lire aussi  Rhythms sort de la clandestinité pour rendre reproductibles les habitudes de travail en équipe.

Les biologistes trouvent des moyens intéressants de tester et d’utiliser l’IA ou des modèles proches de l’IA dans les nombreux sous-domaines de ce domaine. Lors d’une récente conférence décrite par mes amis de GeekWire, des outils permettant de suivre des zèbres, des insectes et même des cellules individuelles ont été présentés lors de séances d’affichage.

Du côté de la physique et de la chimie, les chercheurs d’Argonne NL étudient la meilleure façon de conditionner l’hydrogène pour l’utiliser comme carburant. L’hydrogène libre est notoirement difficile à contenir et à contrôler, c’est pourquoi le fait de le lier à une molécule d’aide spéciale permet de l’apprivoiser. Le problème est que l’hydrogène se lie à pratiquement tout, et qu’il existe donc des milliards et des milliards de possibilités pour les molécules auxiliaires. Mais le tri d’énormes ensembles de données est une spécialité de l’apprentissage automatique.

« Nous recherchions des molécules liquides organiques qui s’accrochent à l’hydrogène pendant longtemps, mais pas au point de ne pas pouvoir être facilement éliminées sur demande », a déclaré Hassan Harb, responsable du projet. Leur système a trié 160 milliards de molécules et, grâce à une méthode de sélection par IA, ils ont pu en examiner 3 millions par seconde, de sorte que le processus final a pris environ une demi-journée. (Ils ont identifié 41 des meilleurs candidats, ce qui est un nombre dérisoire pour l’équipe expérimentale qui doit les tester en laboratoire. J’espère qu’ils trouveront quelque chose d’utile, car je ne veux pas être confronté à des fuites d’hydrogène dans ma prochaine voiture.

Pour terminer sur une mise en garde : une étude parue dans Science a montré que les modèles d’apprentissage automatique utilisés pour prédire comment les patients réagiraient à certains traitements étaient très précis… dans le groupe d’échantillons sur lequel ils avaient été formés. Dans d’autres cas, ils n’ont été d’aucune utilité. Cela ne veut pas dire qu’il ne faut pas les utiliser, mais cela confirme ce que beaucoup de gens dans le secteur ont dit : L’IA n’est pas une solution miracle, et elle doit être testée de manière approfondie dans chaque nouvelle population et application à laquelle elle est appliquée.

IA