Cette semaine dans l’IA : Les acheteurs veulent-ils vraiment la GenAI d’Amazon ?

Cette semaine dans l’IA : Les acheteurs veulent-ils vraiment la GenAI d’Amazon ?

Suivre l’évolution d’un secteur aussi rapide que l’IA n’est pas une mince affaire. En attendant qu’une IA puisse le faire à votre place, voici un récapitulatif pratique des événements récents dans le monde de l’apprentissage automatique, ainsi que des recherches et expériences notables que nous n’avons pas couvertes par elles-mêmes.

Cette semaine, Amazon a annoncé Rufus, un assistant d’achat doté d’une intelligence artificielle et formé à partir du catalogue de produits du géant du commerce électronique ainsi que d’informations provenant du Web. Rufus est intégré à l’application mobile d’Amazon et aide à trouver des produits, à les comparer et à obtenir des recommandations d’achat.

Qu’il s’agisse de recherches générales au début d’un parcours d’achat, telles que « que faut-il prendre en compte lors de l’achat de chaussures de course », ou de comparaisons, telles que « quelles sont les différences entre les chaussures de course de trail et de route », Rufus améliore considérablement la facilité avec laquelle les clients trouvent et découvrent les meilleurs produits pour répondre à leurs besoins », écrit Amazon dans un article de blog.

Tout cela est très bien. Mais ma question est la suivante : qui le réclame à cor et à cri ? vraiment ?

Je ne suis pas convaincu que la GenAI, en particulier sous forme de chatbot, soit un élément technologique dont le citoyen moyen se préoccupe – ou auquel il pense. Les enquêtes me confortent dans cette idée. En août dernier, le Pew Research Center a constaté que parmi les Américains qui ont entendu parler du chatbot GenAI ChatGPT d’OpenAI (18 % des adultes), seuls 26 % l’ont essayé. L’utilisation varie bien sûr en fonction de l’âge, avec un pourcentage plus élevé de jeunes (moins de 50 ans) déclarant l’avoir utilisé que de personnes plus âgées. Mais le fait est que la grande majorité ne sait pas – ou ne se soucie pas – d’utiliser ce qui est sans doute le produit GenAI le plus populaire sur le marché.

La GenAI a ses problèmes bien connus, parmi lesquels une tendance à inventer des faits, à violer les droits d’auteur et à débiter des propos tendancieux et toxiques. La précédente tentative d’Amazon de créer un chatbot GenAI, Amazon Q, a connu des difficultés considérables, révélant des informations confidentielles dès le premier jour de son lancement. Mais je dirais que le plus gros problème de la GenAI aujourd’hui – du moins du point de vue du consommateur – est qu’il y a peu de raisons universellement convaincantes de l’utiliser.

Bien sûr, la GenAI comme Rufus peut aider à accomplir des tâches spécifiques et précises, comme faire des achats par occasion (par exemple, trouver des vêtements pour l’hiver), comparer des catégories de produits (par exemple, la différence entre un brillant à lèvres et une huile) et faire émerger des recommandations de premier ordre (par exemple, des cadeaux pour la Saint-Valentin). Cela répond-il aux besoins de la plupart des acheteurs ? Pas si l’on en croit un récent sondage réalisé par la start-up Namogoo, spécialisée dans les logiciels de commerce électronique.

A lire aussi  Modal Labs décroche 16 millions de dollars pour faire abstraction de l'infrastructure de charge de travail des big data

Namogoo, qui a interrogé des centaines de consommateurs sur leurs besoins et leurs frustrations en matière d’achats en ligne, a constaté que les images des produits étaient de loin le facteur le plus important d’une bonne expérience de commerce électronique, suivies par les commentaires et les descriptions des produits. Les personnes interrogées ont classé la recherche en quatrième position et la « navigation simple » en cinquième position ; la mémorisation des préférences, des informations et de l’historique des achats est l’avant-dernière position.

L’implication est que les gens achètent généralement avec un produit en tête, et que la recherche est une réflexion après coup. Peut-être que Rufus va bouleverser l’équation. Je suis enclin à penser que non, en particulier si le lancement est difficile (et il pourrait bien l’être étant donné l’accueil réservé aux autres expériences d’Amazon en matière d’achats GenAI) – mais je suppose que des choses plus étranges se sont produites.

Voici d’autres articles sur l’IA parus ces derniers jours :

  • Google Maps expérimente la GenAI: Google Maps introduit une fonction GenAI pour vous aider à découvrir de nouveaux endroits. S’appuyant sur de grands modèles de langage (LLM), cette fonctionnalité analyse plus de 250 millions de lieux sur Google Maps et les contributions de plus de 300 millions de guides locaux afin de proposer des suggestions basées sur ce que vous recherchez.
  • Outils GenAI pour la musique et plus encore : Dans d’autres nouvelles de Google, le géant technologique a lancé des outils GenAI pour la création de musique, de paroles et d’images et a mis Gemini Pro, l’un de ses LLM les plus performants, à la disposition des utilisateurs de son chatbot Bard dans le monde entier.
  • Nouveaux modèles d’IA ouverts : L’Allen Institute for AI, l’institut de recherche en IA à but non lucratif fondé par Paul Allen, cofondateur de Microsoft aujourd’hui décédé, a publié plusieurs modèles de langage GenAI qu’il affirme être plus « ouverts » que d’autres – et, surtout, dont la licence permet aux développeurs de les utiliser sans entrave à des fins de formation, d’expérimentation et même de commercialisation.
  • La FCC s’apprête à interdire les appels générés par l’IA : La FCC propose que l’utilisation de la technologie de clonage de la voix dans les robocalls soit jugée fondamentalement illégale, ce qui permettrait d’inculper plus facilement les opérateurs de ces fraudes.
  • Shopify lance un éditeur d’images : Shopify lance un éditeur de médias GenAI pour améliorer les images des produits. Les commerçants peuvent sélectionner un type parmi sept styles ou saisir une invite pour générer un nouvel arrière-plan.
  • GPTs, invoqués : OpenAI encourage l’adoption des GPT, des applications tierces alimentées par ses modèles d’IA, en activant ChatGPT. de les invoquer dans n’importe quel chat. Les utilisateurs payants de ChatGPT peuvent faire intervenir des GPT dans une conversation en tapant « @ » et en sélectionnant un GPT dans la liste.
  • OpenAI s’associe à Common Sense : Dans une annonce sans rapport avec le sujet, OpenAI a déclaré qu’elle faisait équipe avec Common Sense Media, l’organisation à but non lucratif qui examine et classe l’adéquation de divers médias et technologies pour les enfants, afin de collaborer à l’élaboration de lignes directrices sur l’IA et de matériel éducatif pour les parents, les éducateurs et les jeunes adultes.
  • Navigation autonome : The Browser Company, qui fabrique le navigateur Arc, cherche à construire une IA qui navigue sur le web à votre place et vous donne des résultats en contournant les moteurs de recherche, écrit Ivan.
A lire aussi  Paro lève 25 millions de dollars pour mettre en relation des experts financiers indépendants et des entreprises

Plus d’informations sur l’apprentissage automatique

Une IA sait-elle ce qui est « normal » ou « typique » pour une situation, un support ou un énoncé donné ? D’une certaine manière, les grands modèles de langage sont particulièrement adaptés à l’identification des modèles qui ressemblent le plus à d’autres modèles dans leurs ensembles de données. C’est d’ailleurs ce qu’ont découvert les chercheurs de Yale en cherchant à déterminer si une IA pouvait identifier la « typicité » d’un élément dans un groupe d’autres éléments. Par exemple, si l’on considère 100 romans d’amour, lequel est le plus et lequel est le moins « typique » compte tenu de ce que le modèle a stocké à propos de ce genre ?

Il est intéressant (et frustrant) de noter que les professeurs Balázs Kovács et Gaël Le Mens ont travaillé pendant des années sur leur propre modèle, une variante de BERT, et qu’au moment où ils étaient sur le point de publier, ChatGPT est apparu et a reproduit à bien des égards exactement ce qu’ils avaient fait. « Il y avait de quoi pleurer », a déclaré M. Le Mens dans un communiqué de presse. Mais la bonne nouvelle, c’est que la nouvelle IA et l’ancien modèle réglé suggèrent tous deux que ce type de système peut effectivement identifier ce qui est typique et atypique dans un ensemble de données, une découverte qui pourrait s’avérer utile à l’avenir. Les deux chercheurs soulignent que, bien que ChatGPT soutienne leur thèse dans la pratique, sa nature fermée la rend difficile à utiliser sur le plan scientifique.

Des scientifiques de l’université de Pennsylvanie se sont penchés sur un autre concept étrange à quantifier : le bon sens. Ils ont demandé à des milliers de personnes d’évaluer des affirmations telles que « on reçoit ce que l’on donne » ou « ne mangez pas d’aliments ayant dépassé la date de péremption » en fonction de leur degré de « bon sens ». Sans surprise, bien que des schémas aient émergé, « peu de croyances ont été reconnues au niveau du groupe ».

« Nos résultats suggèrent que l’idée que chaque personne se fait du bon sens peut être unique, ce qui rend le concept moins commun qu’on ne pourrait le penser », déclare Mark Whiting, co-auteur principal de l’étude. Pourquoi cela figure-t-il dans une lettre d’information sur l’IA ? Parce que, comme presque tout le reste, il s’avère que quelque chose d’aussi « simple » que le bon sens, que l’on pourrait s’attendre à ce que l’IA finisse par posséder, n’est pas simple du tout ! Mais en le quantifiant de cette manière, les chercheurs et les auditeurs pourraient être en mesure de dire quel est le degré de bon sens d’une IA, ou quels sont les groupes et les préjugés avec lesquels elle s’aligne.

A lire aussi  Isomorphic conclut des accords avec Eli Lilly et Novartis pour la découverte de médicaments

En parlant de préjugés, de nombreux grands modèles de langage sont assez lâches avec les informations qu’ils ingèrent, ce qui signifie que si vous leur donnez le bon message, ils peuvent répondre de manière offensante, incorrecte, ou les deux à la fois. Latimer est une startup qui vise à changer cela avec un modèle qui se veut plus inclusif de par sa conception.

Bien qu’il n’y ait pas beaucoup de détails sur leur approche, Latimer dit que leur modèle utilise la Génération Augmentée de Récupération (censée améliorer les réponses) et un ensemble de contenus et de données uniques sous licence provenant de nombreuses cultures qui ne sont pas normalement représentées dans ces bases de données. Ainsi, lorsque vous posez une question sur un sujet, le modèle ne remonte pas jusqu’à une monographie du XIXe siècle pour vous répondre. Nous en apprendrons davantage sur le modèle lorsque Latimer publiera plus d’informations.

Crédits d’image : Purdue / Bedrich Benes

Une chose qu’un modèle d’IA peut certainement faire, c’est faire pousser des arbres. De faux arbres. Des chercheurs de l’Institut de foresterie numérique de Purdue (où j’aimerais travailler, appelez-moi) ont créé un modèle super compact qui simule la croissance d’un arbre de manière réaliste. Il s’agit d’un de ces problèmes qui semblent simples mais qui ne le sont pas ; vous pouvez simuler la croissance d’un arbre de manière à ce que cela fonctionne si vous faites un jeu ou un film, bien sûr, mais qu’en est-il des travaux scientifiques sérieux ? « Bien que l’IA soit devenue apparemment omniprésente, jusqu’à présent, elle s’est surtout avérée très efficace dans la modélisation de géométries 3D sans rapport avec la nature », a déclaré l’auteur principal Bedrich Benes.

Leur nouveau modèle ne pèse qu’environ un mégaoctet, ce qui est extrêmement petit pour un système d’IA. Mais bien sûr, l’ADN est encore plus petit et plus dense, et il code l’arbre entier, de la racine au bourgeon. Le modèle reste abstrait – il ne s’agit en aucun cas d’une simulation parfaite de la nature – mais il montre que les complexités de la croissance d’un arbre peuvent être encodées dans un modèle relativement simple.

Enfin, les chercheurs de l’université de Cambridge ont mis au point un robot capable de lire le braille plus rapidement qu’un humain, avec une précision de 90 %. Pourquoi, me direz-vous ? L’équipe a décidé qu’il s’agissait d’une tâche intéressante et facilement quantifiable pour tester la sensibilité et la vitesse des doigts robotisés. S’il est capable de lire le braille en zoomant dessus, c’est bon signe ! Pour en savoir plus sur cette approche intéressante, cliquez ici. Ou regarder la vidéo ci-dessous :

IA