Cette semaine dans l’IA : Microsoft colle une publicité pour l’IA sur les claviers

Cette semaine dans l’IA : Microsoft colle une publicité pour l’IA sur les claviers

Suivre l’évolution d’un secteur aussi rapide que l’IA n’est pas une mince affaire. En attendant qu’une IA puisse le faire à votre place, voici un récapitulatif pratique des événements récents dans le monde de l’apprentissage automatique, ainsi que des recherches et expériences notables que nous n’avons pas couvertes par elles-mêmes.

Cette semaine, dans le domaine de l’IA, Microsoft a dévoilé un nouveau clavier PC standard avec une touche « Copilote ». Vous avez bien entendu : à l’avenir, les machines Windows disposeront d’une touche dédiée au lancement de Copilot, l’assistant piloté par l’IA de Microsoft, qui remplacera la touche Contrôle de droite.

On imagine que cette mesure vise à signaler le sérieux de l’investissement de Microsoft dans la course à la domination de l’IA par les consommateurs (et les entreprises, d’ailleurs). C’est la première fois que Microsoft modifie la disposition du clavier Windows depuis environ 30 ans ; les ordinateurs portables et les claviers équipés de la touche Copilot devraient être livrés dès la fin du mois de février.

Mais s’agit-il d’une simple fanfaronnade ? Les utilisateurs de Windows sont-ils vraiment veulent un raccourci de l’IA – ou le goût de Microsoft pour la période de l’IA ?

Microsoft s’est efforcé de doter presque tous ses produits, anciens et nouveaux, d’une fonctionnalité « Copilot ». Grâce à des conférences tape-à-l’œil, à des démonstrations de qualité et, désormais, à une touche d’IA, l’entreprise met en avant sa technologie d’IA et mise sur cette dernière pour stimuler la demande.

La demande n’est pas acquise. Mais pour être juste, quelques fournisseurs ont réussi à transformer les succès viraux de l’IA en réussites. Prenons l’exemple d’OpenAI, le fabricant de ChatGPT, qui aurait dépassé les 1,6 milliard de dollars de revenus annualisés vers la fin de 2023. La plateforme d’art génératif Midjourney est apparemment rentable, elle aussi, et n’a pas encore reçu le moindre centime de capital extérieur.

L’accent est mis sur quelques uns, . La plupart des fournisseurs, alourdis par les coûts de formation et de fonctionnement des modèles d’IA de pointe, ont dû rechercher des tranches de capital de plus en plus importantes pour rester à flot. Anthropic, par exemple, serait sur le point de lever 750 millions de dollars dans le cadre d’un tour de table qui porterait le total de ses capitaux levés à plus de 8 milliards de dollars.

Microsoft, avec ses partenaires AMD et Intel, espère que le traitement de l’IA se déplacera de plus en plus des centres de données coûteux vers le silicium local, banalisant ainsi l’IA – et il se pourrait bien qu’il ait raison. La nouvelle gamme de puces grand public d’Intel contient des cœurs personnalisés pour l’exécution de l’IA. En outre, les nouvelles puces pour centres de données, comme celles de Microsoft, pourraient rendre l’apprentissage de modèles moins coûteux qu’il ne l’est actuellement.

Mais il n’y a aucune garantie. Le véritable test sera de voir si les utilisateurs de Windows et les entreprises clientes, bombardés par ce qui s’apparente à de la publicité pour Copilot, montrent de l’appétit pour cette technologie – et l’achètent. Si ce n’est pas le cas, il ne faudra peut-être pas attendre longtemps avant que Microsoft ne doive à nouveau redessiner le clavier de Windows.

A lire aussi  Comment l'IA générative s'insinue dans le développement des batteries de véhicules électriques

Voici d’autres articles sur l’intelligence artificielle parus ces derniers jours :

  • Copilot arrive sur mobile : Microsoft a discrètement introduit les clients Copilot sur Android et iOS, ainsi que sur iPadOS.
  • GPT Store : OpenAI a annoncé son intention de lancer un magasin pour les GPT, des applications personnalisées basées sur ses modèles d’IA générateurs de texte (par exemple GPT-4, GPT-3, GPT-3, GPT-4, GPT-4, GPT-4, GPT-4, GPT-4, GPT-4).), au cours de la semaine prochaine. Le GPT Store a été annoncé l’année dernière lors de la première conférence annuelle des développeurs d’OpenAI, DevDay, mais son lancement a été retardé en décembre – très certainement en raison du changement de direction qui a eu lieu en novembre, juste après l’annonce initiale.
  • OpenAI réduit le risque de rég : Dans d’autres nouvelles d’OpenAI, la startup cherche à réduire son risque réglementaire dans l’UE en faisant passer une grande partie de ses activités à l’étranger par une entité irlandaise. Natasha écrit que cette démarche réduira la capacité de certains organismes de surveillance de la vie privée de l’Union à agir unilatéralement en cas de problème.
  • Formation des robots : L’équipe DeepMind Robotics de Google étudie les moyens de donner aux robots une meilleure compréhension de ce que nous, les humains, attendons d’eux, écrit Brian. Le nouveau système de l’équipe peut gérer une flotte de robots travaillant en tandem et suggérer des tâches qui peuvent être accomplies par le matériel des robots.
  • La nouvelle société d’Intel : Intel se sépare de une nouvelle société de plateforme, Articul8 AI, avec le soutien du gestionnaire d’actifs et investisseur DigitalBridge, basé à Boca Raton, en Floride. Comme l’explique un porte-parole d’Intel, la plateforme d’Articul8 « offre des capacités d’IA qui maintiennent les données des clients, la formation et l’inférence à l’intérieur du périmètre de sécurité de l’entreprise » – une perspective attrayante pour les clients des secteurs hautement réglementés tels que la santé et les services financiers.
  • L’industrie de la pêche au noir, exposée : L’imagerie satellitaire et l’apprentissage automatique permettent de jeter un regard nouveau et beaucoup plus détaillé sur l’industrie maritime, en particulier sur le nombre et les activités des navires de pêche et de transport en mer. Il s’avère qu’il y a façon plus nombreux que ne le suggèrent les données publiquement disponibles – un fait révélé par une nouvelle recherche publiée dans Nature, menée par une équipe de Global Fishing Watch et de nombreuses universités collaboratrices.
  • Recherche alimentée par l’IA : Perplexity AI, une plateforme appliquant l’IA à la recherche sur le web, a levé 73,6 millions de dollars lors d’un tour de table qui valorise l’entreprise à 520 millions de dollars. Contrairement aux moteurs de recherche traditionnels, Perplexity propose une interface de type « chatbot » qui permet aux utilisateurs de poser des questions en langage naturel (par exemple : « brûle-t-on des calories en dormant ? », « quel est le pays le moins visité ? », etc.)
  • Notes cliniques rédigées automatiquement : Dans d’autres nouvelles concernant le financement, la startup parisienne Nabla a levé 24 millions de dollars. La société, qui dispose d’un avec le Permanente Medical Groupune division du géant américain de la santé Kaiser Permanente, travaille sur un « copilote d’IA » pour les médecins et le reste du personnel clinique, qui prend automatiquement des notes et rédige des rapports médicaux.
A lire aussi  L'IA Duet de Google peut désormais rédiger vos courriels à votre place

Plus d’informations sur l’apprentissage automatique

Vous vous souvenez peut-être de plusieurs exemples de travaux intéressants réalisés l’année dernière, qui consistaient à apporter des modifications mineures à des images afin que les modèles d’apprentissage automatique confondent, par exemple, la photo d’un chien avec celle d’une voiture. Pour ce faire, ils ajoutent des « perturbations », c’est-à-dire des changements mineurs aux pixels de l’image, selon un schéma que seul le modèle peut percevoir. Ou du moins, ils pensée que seul le modèle pouvait le percevoir.

Une expérience menée par les chercheurs de Google DeepMind a montré que lorsqu’une image de fleurs était perturbée pour ressembler davantage à un chat pour l’IA, les gens étaient plus enclins à décrire cette image comme ressemblant davantage à un chat, bien qu’elle n’ait absolument pas l’air de ressembler à un chat. Il en va de même pour d’autres objets courants comme les camions et les chaises.

Crédits photographiques : Google DeepMind

Pourquoi ? Comment ? Les chercheurs ne le savent pas vraiment, et les participants ont tous eu l’impression de choisir au hasard (en effet, l’influence est, bien que fiable, à peine supérieure au hasard). Il semble que nous soyons plus perspicaces que nous ne le pensons, mais cela a également des implications sur la sécurité et d’autres mesures, car cela suggère que des signaux subliminaux pourraient en effet se propager dans l’imagerie sans que personne ne s’en aperçoive.

Une autre expérience intéressante impliquant la perception humaine a été menée par le MIT cette semaine, qui a utilisé l’apprentissage automatique pour aider à élucider un système particulier de compréhension du langage. En gros, certaines phrases simples, comme « Je suis allé à la plage », ne demandent pratiquement aucune énergie cérébrale pour être décodées, alors que des phrases complexes ou confuses comme « dans le système aristocratique duquel il se produit une lugubre révolution » produisent une activation plus importante et plus large, mesurée par l’IRMf.

L’équipe a comparé les lectures d’activation de personnes lisant une variété de phrases de ce type avec la façon dont les mêmes phrases activaient l’équivalent des zones corticales dans un grand modèle de langage. Ils ont ensuite créé un second modèle qui a appris comment les deux modèles d’activation correspondaient l’un à l’autre. Ce modèle a permis de prédire si les nouvelles phrases solliciteraient ou non la cognition humaine. Cela peut sembler un peu obscur, mais c’est vraiment très intéressant, croyez-moi.

A lire aussi  Il y a vingt ans, le chatbot AIM SmarterChild a dépassé le ChatGPT.

La question de savoir si l’apprentissage automatique peut imiter la cognition humaine dans des domaines plus complexes, comme l’interaction avec des interfaces informatiques, reste ouverte. Cependant, les recherches sont nombreuses et valent toujours la peine d’être examinées. Cette semaine, nous avons SeeAct, un système de chercheurs de l’État de l’Ohio qui fonctionne en fondant laborieusement les interprétations d’actions possibles d’un LLM sur des exemples du monde réel.

Crédits d’image : Université d’État de l’Ohio

En gros, vous pouvez demander à un système comme GPT-4V de créer une réservation sur un site, et il comprendra quelle est sa tâche et qu’il doit cliquer sur le bouton « faire la réservation », mais il ne sait pas vraiment comment le faire. En améliorant la façon dont il perçoit les interfaces avec des étiquettes explicites et la connaissance du monde, il peut faire beaucoup mieux, même s’il ne réussit qu’une fraction du temps. Ces modèles d’agents ont encore un long chemin à parcourir, mais attendez-vous à beaucoup de grandes déclarations cette année de toute façon ! J’en ai entendu quelques-unes aujourd’hui.

Ensuite, jetez un coup d’œil à cette solution intéressante à un problème dont je ne soupçonnais pas l’existence, mais qui est tout à fait logique. Les navires autonomes sont un domaine prometteur de l’automatisation, mais lorsque la mer est déchaînée, il est difficile de s’assurer qu’ils sont sur la bonne voie. Le GPS et les gyroscopes ne suffisent pas, la visibilité peut être mauvaise et, surtout, les systèmes qui les gouvernent ne sont pas très sophistiqués. Ils peuvent donc s’écarter considérablement de leur objectif ou gaspiller du carburant en faisant de grands détours s’ils ne savent pas comment s’y prendre, ce qui constitue un gros problème si vous êtes alimenté par une batterie. Je n’y avais jamais pensé !

L’Université maritime et océanique de Corée (un autre sujet dont j’ai entendu parler aujourd’hui) propose un modèle d’orientation plus puissant basé sur la simulation des mouvements des navires dans un modèle informatique de dynamique des fluides. Cette meilleure compréhension de l’action des vagues et de ses effets sur les coques et la propulsion pourrait sérieusement améliorer l’efficacité et la sécurité du transport maritime autonome. Elle pourrait même être utile aux navires guidés par l’homme, dont les capitaines ne savent pas exactement quel est le meilleur angle d’attaque pour un grain ou une forme de vague donnés !

Enfin, si vous voulez un bon récapitulatif des grandes avancées de l’année dernière dans le domaine de l’informatique, qui, en 2023, se chevaucheront massivement avec la recherche en ML, consultez l’excellente revue de Quanta.

IA