L’assistant Google se dote de capacités d’IA avec Bard

L’assistant Google se dote de capacités d’IA avec Bard

Google Assistant bénéficie d’une mise à jour alimentée par l’IA. Lors de l’événement en direct Made By Google d’aujourd’hui, l’entreprise a présenté Assistant with Bard, une nouvelle version de son célèbre assistant personnel mobile qui est maintenant alimenté par des technologies d’IA générative. Essentiellement une combinaison de Google Assistant et de Bard pour les appareils mobiles, le nouvel assistant sera en mesure de traiter un plus large éventail de questions et de tâches, allant de simples requêtes comme « quel temps fait-il ? », « régler une alarme » ou « envoyer un SMS à Jenny », comme auparavant, à des réponses désormais plus intelligentes fournies par l’IA Bard de Google.

Cela inclut la possibilité de plonger dans vos propres applications Google, comme Gmail et Google Drive, pour offrir des réponses personnalisées aux requêtes sur la base d’un opt-in. Cela signifie que vous pouvez poser à Google Assistant des questions telles que « rattrapez les courriels importants que j’ai manqués cette semaine », et que l’assistant numérique peut retrouver les courriels dont vous avez besoin.

Cette fonctionnalité s’appuie sur la mise à jour publiée par Bard à la mi-septembre, qui permet au chatbot AI et à son rival ChatGPT de s’intégrer aux applications et services de Google, notamment Gmail, Docs, Drive, Maps, YouTube, Google Flights et Google Hotels, par le biais d' »extensions Bard ». Les utilisateurs qui ont déjà choisi d’autoriser Bard à accéder à leur Gmail, Drive et Docs n’auront pas à le faire à nouveau lorsqu’ils utiliseront la fonction dans Assistant, mais ceux qui n’ont pas encore essayé les extensions devront donner la permission à Bard avant qu’il ne puisse répondre à ces requêtes personnelles dans l’application Assistant.

Outre la recherche d’informations dans votre boîte de réception, Google suggère que les fonctionnalités étendues pourraient être utilisées pour des tâches personnelles, telles que la planification d’un voyage, la création d’une liste de courses ou la rédaction d’une légende pour les médias sociaux, par exemple. Avec le lancement de cette nouvelle expérience, Google souhaite examiner comment les utilisateurs se servent de l’Assistant avec Bard avant de lancer la fonctionnalité à grande échelle pour le grand public sur Android et iOS.

Et comme Bard est désormais présent sur les appareils mobiles, les utilisateurs peuvent interagir avec lui de différentes manières.

« Il peut entendre à travers le microphone. Il peut vous parler par le biais de la sortie vocale. Il peut voir à travers votre caméra. Et il peut même prendre des mesures pour vous aider », explique Sissie Hsiao, vice-président de Google Bard et Assistant, dans une interview à propos de la nouvelle fonctionnalité. « Et bien sûr, il est sur l’appareil que vous avez toujours avec vous, c’est-à-dire votre téléphone », ajoute-t-elle.

L’exécutif considère cette expansion comme un saut majeur pour l’assistant numérique de l’entreprise, qui était jusqu’à présent limité à des tâches plus basiques.

Crédits d’image : Google

« Au cours des sept dernières années, l’assistant Google a aidé des centaines de millions de personnes à accomplir des tâches grâce à des méthodes naturelles et conversationnelles. Par exemple, régler des alarmes, demander la météo ou passer des appels rapides en disant simplement « Hey, Google ». Aujourd’hui, avec l’arrivée de l’IA générative, de nouvelles possibilités s’offrent à nous pour proposer un assistant numérique encore plus intelligent, plus personnalisé et plus intuitif. Et nous pensons que cela devrait aller au-delà de la voix ».

En fait, les utilisateurs peuvent interagir avec Google Assistant avec Bard de trois façons. Ils peuvent lui poser des questions et des suivis avec leur voix, taper leurs requêtes ou utiliser l’appareil photo grâce à l’intégration de Google Lens de Bard. Cette dernière permet aux utilisateurs de prendre ou de télécharger des photos pour accompagner leurs requêtes.

M. Hsiao explique que les utilisateurs se sont servis de cette fonction de différentes manières, par exemple en prenant des photos de leurs vêtements et de leurs chaussures et en demandant à Bard comment les styliser, ou en prenant des photos d’applications et en demandant à Bard d’écrire l’échafaudage du code.

« Nous voulons que Bard soit multimodal », explique-t-elle. « Il peut voir. Il peut entendre. Il peut vous parler ».

En outre, sur les appareils Pixel et certains téléphones Samsung, vous pouvez appuyer longuement sur le bouton d’alimentation ou d’accueil, respectivement, pour faire apparaître une fenêtre flottante qui offre une superposition conversationnelle sur la page que vous consultez, permettant à Bard de répondre à ce que vous voyez à l’écran. Par exemple, vous pouvez faire apparaître Bard au-dessus d’une photo d’hôtel et lui demander si l’hôtel est disponible pour une réservation ce week-end.

Crédits d’image : Google

Avec l’intégration de Bard dans Google Assistant, celui-ci n’est en rien limité par rapport à la version web, ce qui signifie qu’il peut désormais revérifier vos réponses en cas d’hallucinations de l’IA, un problème auquel les IA modernes sont confrontées lorsqu’elles construisent des réponses incorrectes sur la base d’informations erronées. Cette fonctionnalité a également été mise en place à la mi-septembre.

Google précise que l’Assistant avec Bard sera lancé dans un premier temps sur un nombre limité de marchés, et pas seulement anglophones. Toutefois, il n’a pas encore déterminé quels marchés ou langues seront les premiers à recevoir la mise à jour. Dans les mois à venir, la mise à jour sera étendue aux utilisateurs d’iOS et d’Android avant d’explorer la possibilité d’apporter les fonctionnalités améliorées de l’Assistant à d’autres plateformes.

En savoir plus sur l'événement Pixel 2023 de Google sur TechCrunch

IA