L’IA n’est pas et ne sera pas de sitôt maléfique ou même intelligente, mais elle est aussi irréversiblement omniprésente.

L’IA n’est pas et ne sera pas de sitôt maléfique ou même intelligente, mais elle est aussi irréversiblement omniprésente.

L’intelligence artificielle – ou plutôt la variété basée sur de grands modèles de langage qui nous captivent actuellement – est déjà à l’automne de son cycle d’engouement, mais contrairement à la cryptographie, elle ne disparaîtra pas simplement dans les coins sombres et indignes de l’internet une fois que son statut de « tendance » s’estompera. Au contraire, il s’installe dans un endroit où son utilisation est déjà courante, même à des fins pour lesquelles il est franchement inadapté. Le doomérisme voudrait nous faire croire que l’IA deviendra tellement intelligente qu’elle réduira l’humanité en esclavage ou la fera disparaître, mais la réalité est qu’elle est bien plus menaçante en tant que couche omniprésente d’erreurs et d’hallucinations qui s’infiltrent dans nos eaux souterraines intellectuelles partagées.

Le débat entre le doomérisme et l’e/acc continue, avec tous les arguments fondés et factuels que l’on peut attendre de la part des élites de la Silicon Valley, réputées pour leur côté terre-à-terre. Le contexte clé pour ces personnalités influentes est de se rappeler qu’elles passent toute leur carrière à louer/décrier le succès ou l’échec extrême de n’importe quelle technologie sur laquelle elles parient ou contre laquelle elles parient – pour finalement voir cette technologie s’effondrer bien avant d’atteindre l’état parfait ou l’état catastrophique. Les témoins sont toujours présents, pour toujours, mais si vous cherchez des exemples précis, la conduite autonome est un exemple récent très pratique, tout comme la RV et le métavers.

Les débats utopiques ou dystopiques dans le domaine de la technologie font toujours ce qu’ils sont censés faire, c’est-à-dire nous empêcher d’avoir de véritables conversations sur l’impact réel et actuel de la technologie telle qu’elle est réellement déployée et utilisée. L’IA a sans aucun doute eu un impact massif, en particulier depuis l’introduction de ChatGPT il y a un peu plus d’un an, mais cet impact ne consiste pas à savoir si nous avons involontairement semé les graines d’une divinité virtuelle, il s’agit de la façon dont ChatGPT s’est avéré beaucoup plus populaire, plus viral et plus collant que ses créateurs ne l’auraient jamais cru possible – alors même que ses capacités correspondaient en fait à leurs attentes relativement modestes.

D’après les études les plus récentes, l’utilisation de l’IA générative est assez répandue et en augmentation, en particulier chez les jeunes utilisateurs. Selon une étude récente de Salesforce sur l’utilisation au cours de l’année écoulée, les principales utilisations ne sont pas des nouveautés ou des divertissements, mais plutôt l’automatisation des tâches et des communications professionnelles. À quelques rares exceptions près, comme lorsqu’elle est utilisée pour préparer des arguments juridiques, les conséquences d’une légère hallucination de l’IA dans la génération de ces communications et de la corvée de l’entreprise sont insignifiantes, mais il en résulte sans aucun doute une strate numérique composée d’erreurs factuelles faciles à oublier et d’inexactitudes mineures.

Cela ne veut pas dire que les gens sont particulièrement doués pour diffuser des informations exemptes d’erreurs factuelles ; c’est plutôt le contraire, en fait, comme nous l’avons vu via la montée de l’économie de la désinformation sur les réseaux sociaux, en particulier dans les années qui ont précédé et inclus la présidence de Trump. Même si l’on fait abstraction des intentions malveillantes et des actes intentionnels, l’erreur fait partie intégrante de la croyance et de la communication humaines et, en tant que telle, elle a toujours été omniprésente dans les bassins de connaissances partagées.

La différence est que les modèles d’IA basés sur le LLM le font avec désinvolture, constamment et sans réflexion personnelle, et qu’ils le font avec un vernis de confiance autoritaire auquel les utilisateurs sont sensibles en raison de nombreuses années de résultats de recherche Google relativement stables, factuels et fiables (il faut admettre que le mot « relativement » fait beaucoup de travail ici). Au début, les résultats de recherche et les sources d’information en ligne provenant de la foule étaient traités avec une bonne dose de scepticisme critique, mais des années, voire des décennies, d’informations relativement fiables fournies par la recherche Google, Wikipedia et autres ont court-circuité notre méfiance à l’égard des choses qui nous reviennent lorsque nous tapons une requête dans une zone de texte sur l’internet.

Je pense que les résultats de la production par ChatGPT et ses semblables d’un volume massif de contenu à l’exactitude douteuse pour la communication quotidienne seront subtils, mais ils valent la peine d’être étudiés et potentiellement atténués. La première étape consisterait à examiner pourquoi les gens pensent qu’ils peuvent confier autant de choses à l’IA dans son état actuel pour commencer ; avec toute automatisation généralisée des tâches, l’enquête devrait probablement se concentrer sur la tâche, et non sur l’automatisation. Quoi qu’il en soit, les changements réels et importants que l’IA apporte sont déjà là, et bien qu’ils ne ressemblent en rien à Skynet, ils méritent davantage d’être étudiés que les possibilités qui reposent sur la réalisation de rêves techno-optimistes.

IA