Contre la pseudanthropie

Contre la pseudanthropie

« Dois-je dire que tu es un homme, alors que tu as tous les symptômes d’une bête ? Comment saurais-je que tu es un homme ? Par ta forme ? Cela m’afflige davantage, quand je vois une bête à la ressemblance d’un homme. »
– Robert Burton, L’anatomie de la mélancolie


Je propose que qu’il soit interdit aux logiciels de se livrer à la pseudanthropie, c’est-à-dire à l’usurpation de l’identité humaine. Nous devons prendre des mesures pour empêcher les systèmes informatiques communément appelés intelligence artificielle de se comporter comme s’ils étaient des pairs vivants et pensants des humains ; au contraire, ils doivent utiliser des signaux positifs et indubitables pour s’identifier comme les modèles statistiques sophistiqués qu’ils sont.

Si nous ne le faisons pas, ces systèmes tromperont systématiquement des milliards de personnes au service d’intérêts cachés et mercantiles et, d’un point de vue esthétique, parce qu’il ne sied pas à une vie intelligente d’être imitée par des machines.

Comme de nombreux chercheurs l’ont observé avant même la documentation de l' »effet Eliza » dans les années 60, l’humanité est dangereusement trop désireuse de se reconnaître dans une réplique : Un vernis de langage naturel suffit à convaincre la plupart des gens qu’ils parlent avec une autre personne.

Mais ce qui n’était au départ qu’une nouveauté intrigante, une sorte de paréidolie psycholinguistique, s’est transformé en une tromperie délibérée. L’avènement de grands modèles linguistiques a donné naissance à des moteurs capables de générer des réponses plausibles et grammaticales à n’importe quelle question. Il est évident que ces moteurs peuvent être utilisés à bon escient, mais le langage naturel reproduit mécaniquement et superficiellement indiscernable du discours humain présente également de sérieux risques. (De même pour les médias génératifs et la prise de décision algorithmique).

Ces systèmes sont déjà présentés comme des humains ou confondus avec eux, même si ce n’est pas encore à grande échelle – mais ce danger se rapproche et devient de plus en plus évident. Les organisations qui possèdent les ressources nécessaires à la création de ces modèles ne sont pas seulement des accessoires, mais aussi des outils. délibérément en les concevant de manière à imiter les interactions humaines, avec l’intention de les déployer à grande échelle sur des tâches actuellement effectuées par des humains. En d’autres termes, l’objectif est que les systèmes d’IA soient suffisamment convaincants pour que les gens supposent qu’ils sont humains et qu’on ne leur dise pas le contraire.

De même que peu de gens prennent la peine de vérifier la véracité d’un article périmé ou d’une désinformation délibérément élaborée, rares sont ceux qui s’interrogent sur l’humanité de leur interlocuteur lors d’un échange banal. Ces entreprises y comptent bien et ont l’intention d’abuser de cette pratique. La méconnaissance généralisée de ces systèmes d’IA comme de vraies personnes avec des pensées, des sentiments et un intérêt général pour l’existence – des choses importantes qu’ils ne possèdent pas – est inévitable si nous ne prenons pas des mesures pour l’empêcher.

Il ne s’agit pas de craindre l’intelligence artificielle générale, la perte d’emplois ou toute autre préoccupation immédiate, bien qu’il s’agisse en quelque sorte d’une question existentielle. Pour paraphraser Thoreau, il s’agit de nous empêcher de devenir les outils de nos outils.

Je soutiens que c’est un abus et une dilution des qualités anthropiques, et une imposture préjudiciable à l’humanité dans son ensemble, qu’un logiciel se présente frauduleusement comme une personne en imitant superficiellement des attributs exclusivement humains. Par conséquent, je propose que nous interdisions tous ces comportements pseudanthropiques et que nous exigions des signaux clairs indiquant qu’un agent, une interaction, une décision ou un média donné est le produit d’un système informatique.

Certains de ces signaux possibles sont présentés ci-dessous. Ils peuvent sembler fantaisistes, voire absurdes, mais admettons-le : nous vivons une époque absurde et fantaisiste. Les graves énigmes de cette année relèvent de la science-fiction de l’année dernière, et parfois même d’une époque moins lointaine.

Bien sûr, je ne me fais pas d’illusions sur le fait que quiconque adhérera volontairement à ces règles, et même s’ils étaient par miracle obligés de le faire, cela n’empêcherait pas les acteurs malveillants d’ignorer ces exigences. Mais c’est la nature même de toutes les règles : Elles ne sont pas des lois de la physique, impossibles à enfreindre, mais un moyen de guider et d’identifier les personnes bien intentionnées dans une société ordonnée, et de fournir une structure pour censurer les contrevenants.

Si des règles comme celles qui suivent ne sont pas adoptées, des milliards de personnes seront soumises sans le savoir et sans leur consentement à des médias et à des interactions pseudanthropiques qu’elles pourraient comprendre ou sur lesquels elles pourraient agir différemment si elles savaient qu’une machine était derrière elles. Je pense que c’est une bonne chose que tout ce qui provient de l’IA soit perceptible en tant que tel, et non pas par un expert ou un audit numérique judiciaire, mais par le biais d’un système d’information et de communication. immédiatement, par n’importe qui.

Il s’agit à tout le moins d’une expérience de pensée. La conversation sur la réglementation et l’éthique de l’IA devrait porter sur le fait que ces systèmes pourraient et devraient se déclarer clairement et s’abstenir de toute tromperie – et que nous nous en porterions probablement tous mieux s’ils le faisaient. Voici quelques idées sur la manière d’y parvenir.

1. L’IA doit rimer

Cette règle semble farfelue et facétieuse, et c’est certainement celle qui a le moins de chances d’être adoptée. Mais peu d’autres règles permettraient de résoudre de manière aussi nette autant de problèmes liés au langage généré.

Les interactions textuelles et les médias constituent aujourd’hui l’un des lieux les plus courants d’usurpation d’identité par l’IA. Mais le problème n’est pas tant que l’IA peut produire un texte de type humain ; c’est plutôt que les humains essaient de faire passer ce texte pour le leur ou pour celui d’un humain d’une manière ou d’une autre, qu’il s’agisse de spam, d’avis juridiques, d’essais d’études sociales ou de quoi que ce soit d’autre.

De nombreuses recherches sont menées sur la manière d’identifier les textes générés par l’IA dans la nature, mais jusqu’à présent, elles n’ont guère abouti et promettent une course à l’armement sans fin. Il existe une solution simple à ce problème : Tout texte généré par un modèle de langage doit avoir une caractéristique distinctive que tout le monde peut reconnaître tout en laissant le sens intact.

Par exemple, tous les textes produits par une IA pourraient rimer.

La rime est possible dans la plupart des langues, tout aussi évidente dans le texte que dans la parole, et elle est accessible à tous les niveaux de capacité, d’apprentissage et d’alphabétisation. Elle est également assez difficile à imiter pour les humains, alors qu’elle est plus ou moins triviale pour les machines. Rares sont ceux qui prendraient la peine de publier un article ou de remettre leurs devoirs dans un hexamètre dactylique ABABCC. Mais un modèle linguistique le fera joyeusement et instantanément si on le lui demande ou si on le lui impose.

A lire aussi  La startup de visualisation de données Virtualitics obtient un investissement de 37 millions de dollars

Nous n’avons pas besoin d’être pointilleux sur le mètre, et bien sûr, certaines de ces rimes seront nécessairement obliques, artificielles ou maladroites – mais tant qu’elles se présentent sous forme de rimes, je pense qu’elles suffiront. Le but n’est pas d’embellir, mais de faire comprendre à quiconque voit ou entend un texte donné qu’il provient directement d’une IA.

Les systèmes actuels semblent avoir un penchant littéraire, comme le démontre ChatGPT :

Résumé rimé généré par ChatGPT de l’un des lauréats du prix Nobel de physique 2022. Crédits images : Texte : OpenAI/ChatGPT

Un corpus de rimes amélioré permettrait d’améliorer la clarté et d’atténuer un peu les choses. Mais il permet de faire passer l’essentiel et, s’il citait ses sources, celles-ci pourraient être consultées par l’utilisateur.

Cela n’élimine pas les hallucinations, mais cela avertit les lecteurs qu’ils doivent être vigilants. Bien sûr, il pourrait être réécrit, mais ce n’est pas non plus une tâche triviale. Et il y a peu de risques que les humains imitent l’IA avec leur propre doggerel (bien que cela puisse inciter certains à améliorer leur art).

Encore une fois, il n’est pas nécessaire de modifier universellement et parfaitement tous les textes générés, mais de créer un signal fiable et indubitable que le texte que vous lisez ou entendez est généré. Il y aura toujours des modèles libres, tout comme il y aura toujours des contrefaçons et des marchés noirs. On ne peut jamais être totalement sûr qu’un morceau de texte est pas tout comme on ne peut pas prouver une chose négative. Les mauvais acteurs trouveront toujours un moyen de contourner les règles. Mais cela n’enlève rien à l’avantage de disposer d’un signal universel et affirmatif indiquant qu’un texte est généré.

Si vos recommandations de voyage sont rédigées en iambes, vous pouvez être certain qu’aucun être humain n’a pris la peine d’essayer de vous tromper en composant ces lignes. Si l’agent de votre service à la clientèle termine vos projets de voyage par un alexandrin satisfaisant, vous savez que ce n’est pas une personne qui vous aide. Si votre thérapeute vous parle d’une crise en couplets, c’est qu’il n’a pas d’esprit ou d’émotions avec lesquels sympathiser ou conseiller. Il en va de même pour un billet de blog du PDG, une plainte déposée auprès du conseil scolaire ou une ligne d’assistance pour les troubles de l’alimentation.

Dans chacun de ces cas, pourriez-vous agir différemment si vous saviez que vous vous adressez à un ordinateur plutôt qu’à une personne ? Peut-être, peut-être pas. Le service clientèle ou les plans de voyage pourraient être tout aussi bons que ceux d’un être humain, et plus rapides en plus. Un « thérapeute » non humain pourrait être un service souhaitable. De nombreuses interactions avec l’IA sont inoffensives, utiles, voire préférables à une interaction équivalente avec une personne. Mais les gens devraient savoir dès le départ, et on devrait le leur rappeler fréquemment, surtout dans des circonstances de nature plus personnelle ou importante, que la « personne » qui leur parle n’est pas du tout une personne. C’est à l’utilisateur de choisir comment interpréter ces interactions, mais il doit s’agir d’un choix.

S’il existe une solution aussi pratique mais moins fantaisiste que la rime, je suis preneur.

2. L’IA ne doit pas présenter de visage ou d’identité

Technologie de l'intelligence artificielle sur fond futuriste. Lettres de codage binaire vertes sur fond noir.

Crédits d’image : Getty Images/cundra

Il n’y a aucune raison pour qu’un modèle d’IA ait un visage humain, ni d’ailleurs aucun aspect de l’individualité humaine, si ce n’est pour tenter d’attirer une sympathie ou une confiance non méritée. Les systèmes d’IA sont des logiciels, pas des organismes, et doivent se présenter et être perçus comme tels. Lorsqu’ils doivent interagir avec le monde réel, il existe d’autres moyens d’exprimer l’attention et l’intention que la simulation pseudanthropique du visage. Je laisse l’invention de ces moyens à l’imagination féconde des concepteurs UX.

L’IA n’a pas non plus d’origine nationale, de personnalité, d’agence ou d’identité – mais sa diction émule celle des humains qui en ont une. Ainsi, bien qu’il soit parfaitement raisonnable pour un modèle de dire qu’il a été formé sur des sources espagnoles ou qu’il parle couramment l’espagnol, il ne peut pas prétendre à ce qui suit être espagnol. De même, même si toutes ses données d’apprentissage étaient attribuées à des femmes, cela ne lui conférerait pas de féminité, pas plus qu’une galerie d’œuvres de femmes peintres n’est elle-même féminine.

Par conséquent, comme les systèmes d’IA n’ont pas de sexe et n’appartiennent à aucune culture, ils ne devraient pas être désignés par des pronoms humains comme il ou elle, mais plutôt comme des objets ou des systèmes : comme n’importe quelle application ou n’importe quel logiciel, « il » et « ils » suffiront.

(Il peut même être intéressant d’étendre cette règle aux cas où un tel système, étant en fait dépourvu de soi, utilise inévitablement la première personne. Nous pourrions souhaiter que ces systèmes utilisent la troisième personne à la place, comme « ChatGPT » plutôt que « je » ou « moi ». Mais il faut admettre que cela peut poser plus de problèmes que cela n’en vaut la peine. Certaines de ces questions sont abordées dans un article fascinant publié récemment dans Nature).

Une IA ne doit pas prétendre être une personne fictive, comme un nom inventé pour les besoins de la rédaction d’un article ou d’un livre. Les noms de ce type ne servent qu’à identifier l’homme qui se cache derrière quelque chose et leur utilisation est donc pseudanthropique et trompeuse. Si un modèle d’intelligence artificielle a généré une part importante du contenu, ce modèle doit être mentionné. En ce qui concerne les noms des modèles eux-mêmes (une nécessité inéluctable ; de nombreuses machines ont des noms après tout), une convention pourrait être utile, comme des noms uniques commençant et se terminant par la même lettre ou le même phonème – Amira, Othello, et ainsi de suite.

Cela s’applique également aux cas d’usurpation d’identité, comme la pratique déjà courante qui consiste à entraîner un système à reproduire les schémas vocaux et verbaux et les connaissances d’une personne réelle et vivante. David Attenborough, le célèbre naturaliste et narrateur, a été particulièrement visé par cette pratique, car il s’agit de l’une des voix les plus reconnaissables au monde. Aussi divertissant que soit le résultat, il a pour effet de contrefaire et de dévaloriser son imprimatur, ainsi que la réputation qu’il a soigneusement cultivée et définie tout au long de sa vie.

La question du consentement et de l’éthique est très difficile et doit évoluer en même temps que la technologie et la culture. Mais je soupçonne que même les plus permissifs et les plus optimistes aujourd’hui auront des raisons de s’inquiéter au cours des prochaines années, car non seulement des personnalités mondialement connues, mais aussi des hommes politiques, des collègues et des êtres chers seront recréés contre leur volonté et à des fins malveillantes.

3. L’IA ne peut ni « sentir » ni « penser »

Utiliser le langage de l’émotion ou de la conscience de soi alors qu’elle ne possède ni l’une ni l’autre n’a aucun sens. Les logiciels ne peuvent pas être désolés, effrayés, inquiets ou heureux. Ces mots ne sont utilisés que parce que c’est ce que le modèle statistique prédit à un logiciel. humain et leur utilisation ne reflète aucunement un état ou une pulsion interne. Ces expressions fausses et trompeuses n’ont aucune valeur ni même aucun sens, mais servent, comme un visage, à faire croire à un interlocuteur humain que l’interface représente, ou est, une personne.

A lire aussi  Rabbit construit un modèle d'IA qui comprend le fonctionnement des logiciels

En tant que tels, les systèmes d’IA ne peuvent prétendre « ressentir » ou exprimer de l’affection, de la sympathie ou de la frustration à l’égard de l’utilisateur ou de tout autre sujet. Le système ne ressent rien et n’a fait que choisir une série de mots plausibles en se basant sur des séquences similaires dans ses données d’apprentissage. Mais malgré l’omniprésence de dyades apprises par cœur comme « Je t’aime/Je t’aime aussi » dans la littérature, les utilisateurs naïfs prendront un échange identique avec un modèle de langage pour argent comptant plutôt que comme le résultat prévisible d’un moteur d’autocomplétion.

Le langage de la pensée, de la conscience et de l’analyse n’est pas non plus approprié pour un modèle d’apprentissage automatique. Les humains utilisent des expressions telles que « je pense » pour exprimer des processus internes dynamiques propres aux êtres sensibles (bien que la question de savoir si les humains sont les seuls à le faire soit une autre question).

Les modèles de langage et l’IA en général sont déterministes par nature : des calculateurs complexes qui produisent une sortie pour chaque entrée. Ce comportement mécaniste peut également être évité en ajoutant des nombres aléatoires aux messages-guides ou en incluant une fonction de variation de la sortie, mais il ne faut pas confondre ce comportement avec une véritable cogitation. Ils ne « pensent » pas plus qu’une réponse est correcte qu’une calculatrice ne « pense » que 8 x 8 est égal à 64. Les mathématiques du modèle linguistique sont plus compliquées, c’est tout.

En tant que tels, les systèmes ne doivent pas imiter le langage de la délibération interne, ni celui de la formation et de l’expression d’une opinion. Dans ce dernier cas, les modèles de langage reflètent simplement une représentation statistique des opinions présentes dans leurs données d’apprentissage, ce qui est une question de rappel et non de position. (Si des questions d’éthique ou autres sont programmées dans un modèle par ses créateurs, celui-ci peut et doit bien sûr le dire).

NB : De toute évidence, les deux interdictions susmentionnées sapent directement le cas d’utilisation populaire des modèles de langage formés et incités à imiter certaines catégories de personnes, des personnages fictifs aux thérapeutes en passant par les partenaires bienveillants. Ce phénomène nécessite des années d’étude, mais il est peut-être bon de dire ici que la solitude et l’isolement dont souffrent tant de personnes de nos jours méritent une meilleure solution qu’un perroquet stochastique marionnettisé par le capitalisme de surveillance. Le besoin de connexion est réel et valable, mais l’IA est un vide qui ne peut le combler.

4. Les chiffres, les décisions et les réponses dérivées de l’IA doivent être marqués⸫.

Les modèles d’IA sont de plus en plus utilisés comme fonctions intermédiaires dans les logiciels, les flux de travail interservices, voire d’autres modèles d’IA. C’est utile, et une panoplie d’agents spécifiques à un sujet ou à une tâche sera probablement la solution de choix pour un grand nombre d’applications puissantes à moyen terme. Mais cela multiplie également la profondeur de l’inexplicabilité déjà présente chaque fois qu’un modèle produit une réponse, un chiffre ou une décision binaire.

Il est probable qu’à court terme, les modèles que nous utilisons deviendront de plus en plus complexes et de moins en moins transparents, tandis que les résultats qui s’appuient sur eux apparaissent de plus en plus souvent dans des contextes où, auparavant, l’estimation d’une personne ou le calcul d’une feuille de calcul l’aurait été.

Il se peut très bien que le chiffre dérivé de l’IA soit plus fiable ou qu’il comprenne une variété de points de données qui améliorent les résultats. La question de savoir s’il convient d’utiliser ces modèles et ces données, et comment, est du ressort des experts dans leur domaine. Ce qui importe, c’est de signaler clairement qu’un algorithme ou un modèle a été employée à quelque fin que ce soit.

Si une personne demande un prêt et que l’agent de crédit prend lui-même une décision de oui ou de non, mais que le montant qu’il est prêt à prêter et les conditions de ce prêt sont influencés par un modèle d’IA, cela doit être indiqué de manière visible dans tous les contextes où ces chiffres ou ces conditions sont présents. Je suggère d’ajouter un symbole existant et facilement reconnaissable qui n’est pas largement utilisé par ailleurs, comme un signe-de-renvoi – tel que ⸫ – qui, historiquement, indiquait une matière supprimée (ou douteuse).

Ce symbole doit être lié à la documentation relative aux modèles ou aux méthodes utilisés, ou au moins les nommer de manière à ce que l’utilisateur puisse les consulter. L’idée n’est pas de fournir une ventilation technique complète, que la plupart des gens ne seraient pas en mesure de comprendre, mais d’indiquer que des systèmes décisionnels non humains spécifiques ont été utilisés. Ce n’est guère plus qu’une extension du système de citation ou de note de bas de page largement utilisé, mais les chiffres ou les affirmations dérivées de l’IA devraient avoir une marque spécifique plutôt qu’une marque générique.

Des recherches sont en cours pour réduire les déclarations faites par les modèles de langage à une série d’assertions qui peuvent être vérifiées individuellement. Malheureusement, cela a pour effet secondaire de multiplier le coût de calcul du modèle. L’IA explicable est un domaine de recherche très actif, et cette orientation est donc susceptible d’évoluer comme le reste.

5. L’IA ne doit pas prendre de décisions de vie ou de mort

Seul un être humain est capable de peser les considérations d’une décision qui peut coûter la vie à un autre être humain. Après avoir défini une catégorie de décisions qualifiées de « vie ou de mort » (ou un autre terme connotant la gravité appropriée), l’IA doit être empêchée de prendre ces décisions ou de tenter de les influencer au-delà de la fourniture d’informations et d’analyses quantitatives (marquées, par supra).

Bien entendu, elle peut toujours fournir des informations, même cruciales, aux personnes qui prennent effectivement de telles décisions. Par exemple, un modèle d’IA peut aider un radiologue à trouver le contour correct d’une tumeur, et il peut fournir des probabilités statistiques d’efficacité de différents traitements. Mais la décision de traiter ou non le patient est laissée aux personnes concernées (tout comme la responsabilité qui en découle).

Soit dit en passant, cela interdit également les machines de guerre létales telles que les drones bombardiers ou les tourelles autonomes. Ils peuvent suivre, identifier, catégoriser, etc., mais un doigt humain doit toujours appuyer sur la gâchette.

S’il est confronté à une décision de vie ou de mort apparemment inévitable, le système d’IA doit s’arrêter ou se désactiver en toute sécurité. Ce corollaire est nécessaire dans le cas des véhicules autonomes.

La meilleure façon de court-circuiter l’insoluble « problème du chariot » consistant à décider s’il faut tuer (disons) un enfant ou une grand-mère lorsque les freins lâchent, est que l’agent d’IA se détruise à la place de la manière la plus sûre possible, quel qu’en soit le coût pour lui-même ou pour ses occupants (peut-être la seule exception admissible à la règle de vie ou de mort).

Ce n’est pas si difficile – il y a un million de façons pour une voiture de heurter un lampadaire, un séparateur d’autoroute ou un arbre. Il s’agit d’éviter la moralité de la question et de la transformer en une simple question d’avoir toujours un plan d’autodestruction réaliste prêt à l’emploi. Si un système informatique agissant en tant qu’agent dans le monde physique n’est pas prêt à s’autodétruire ou, à tout le moins, à se retirer de l’équation en toute sécurité, la voiture (ou le drone, ou le robot) ne devrait pas fonctionner du tout.

A lire aussi  Musk annonce que les abonnés de Twitter auront un accès anticipé au chatbot de xAI, Grok

De même, tout modèle d’IA qui détermine positivement que son mode de fonctionnement actuel pourrait entraîner des dommages graves ou des pertes de vie doit s’arrêter, expliquer pourquoi il s’est arrêté et attendre une intervention humaine. Il ne fait aucun doute que cela produira une frontière fractale de cas limites, mais c’est mieux que de laisser cette question aux comités d’éthique intéressés d’une centaine d’entreprises privées.

6. L’imagerie de l’IA doit avoir un coin coupé

Croquis de style Piranèse généré par DALL-E, avec un coin coupé pour indiquer l’origine de l’IA. Crédits images : OpenAI/Devin Coldewey

Comme pour le texte, les modèles de génération d’images produisent un contenu qui est superficiellement impossible à distinguer de la production humaine.

Ce problème ne fera que s’aggraver à mesure que la qualité de l’imagerie s’améliorera et que l’accès s’élargira. C’est pourquoi il faudrait exiger que toutes les images générées par l’IA aient une qualité distinctive et facilement identifiable. Je suggère de couper un coin, comme vous le voyez ci-dessus.

Cela ne résout pas tous les problèmes, car l’image pourrait bien sûr être simplement recadrée pour l’exclure. Mais là encore, les acteurs malveillants toujours Nous devrions d’abord veiller à ce que les images générées de manière non malveillante, telles que les images de stock et les illustrations, puissent être identifiées par n’importe qui dans n’importe quel contexte.

Les métadonnées sont supprimées, les filigranes sont perdus à cause des artefacts, les formats de fichiers changent. Une caractéristique visuelle simple, mais bien visible et durable, est la meilleure option à l’heure actuelle. Quelque chose d’inimitable mais d’inhabituel, comme un coin coupé à 45 degrés, à un quart de la hauteur ou du bas d’un côté. Cela est visible et clair, que l’image soit également étiquetée « générée » dans le contexte, qu’elle soit enregistrée au format PNG ou JPG, ou qu’elle ait toute autre qualité éphémère. Il n’est pas facile de l’estomper comme de nombreux filigranes, mais il faudrait que le contenu soit régénéré.

Les métadonnées et des éléments tels que la chaîne de contrôle numérique, voire la stéganographie, ont encore un rôle à jouer, mais un signal clairement visible est utile.

Bien sûr, cela expose les gens à un nouveau risque, celui de faire confiance aux seulement les images dont les coins sont coupés sont générées. Le problème auquel nous sommes déjà confrontés est que toutes les images sont suspectes et que nous devons nous appuyer sur les données de la base de données. entièrement sur des indices visuels plus subtils ; il n’existe pas de signal simple et positif indiquant qu’une image est générée. L’écrêtage est justement un signal de ce type et il aidera à définir cette pratique de plus en plus courante.


Annexe

Les gens ne vont-ils pas simplement contourner des règles comme celles-ci avec des modèles non limités ?

Oui, et il m’arrive de pirater des émissions de télévision. Il m’arrive de traverser la rue en dehors des clous. Mais en général, j’adhère aux règles et aux lois que nous avons établies en tant que société. Si quelqu’un veut utiliser un modèle de langage non rimé dans l’intimité de sa maison pour des raisons qui lui sont propres, personne ne peut ni ne doit l’en empêcher. Mais s’il veut rendre quelque chose largement disponible, sa pratique s’inscrit désormais dans un contexte collectif, avec des règles mises en place pour la sécurité et le confort de tous. Le contenu pseudo-anthropique passe de la sphère personnelle à la sphère sociétale, et des règles personnelles aux règles sociétales. Des pays différents peuvent également avoir des règles différentes en matière d’IA, tout comme ils ont des règles différentes en matière de brevets, d’impôts et de mariage.

Pourquoi ce néologisme ? Ne peut-on pas simplement dire « anthropomorphiser » ?

La pseudanthropie consiste à contrefaire l’humanité ; l’anthropomorphose consiste à transformer en l’humanité. Cette dernière est le fait des humains, une projection de leur propre humanité sur quelque chose qui en est dépourvu. Nous anthropomorphisons tout, des jouets aux animaux domestiques en passant par les voitures et les outils, mais la différence est qu’aucune de ces choses n’émule délibérément des qualités anthropiques afin de donner l’impression qu’elle est humaine. L’habitude d’anthropomorphiser est un accessoire de la pseudanthropie, mais ce n’est pas la même chose.

Et pourquoi le proposer de cette manière un peu exagérée et auto-sérieuse ?

Eh bien, c’est comme ça que j’écris !

Comment faire respecter de telles règles ?

Idéalement, une commission fédérale sur l’IA devrait être créée pour élaborer les règles, avec la participation de parties prenantes telles que des universitaires, des défenseurs des droits civils et des groupes industriels. Les suggestions générales que je fais ici ne sont pas applicables ou exécutoires, mais un ensemble rigoureux de définitions, de capacités, de restrictions et de divulgations fournirait le type de garantie que nous attendons de choses telles que les étiquettes alimentaires, les allégations de médicaments, les politiques de protection de la vie privée, etc.

Si les gens ne peuvent pas faire la différence, est-ce vraiment important ?

Oui, ou du moins je le crois. Pour moi, il est clair que le mimétisme superficiel des attributs humains est dangereux et doit être limité. D’autres peuvent être d’un avis différent, mais je soupçonne fortement qu’au cours des prochaines années, il deviendra beaucoup plus clair que les modèles d’IA qui prétendent être des personnes causent un réel préjudice. C’est littéralement déshumanisant.

Et si ces modèles étaient réellement sensibles ?

Je considère comme axiomatique qu’ils ne le sont pas. Ce type de question peut éventuellement devenir plausible, mais pour l’instant, l’idée que ces modèles sont conscients d’eux-mêmes n’est absolument pas étayée.

Si vous obligez les IA à se déclarer, ne sera-t-il pas plus difficile de les détecter lorsqu’elles ne le font pas ?

Le risque existe qu’en rendant plus évident le contenu généré par l’IA, nous ne développions pas notre capacité à le distinguer naturellement. Mais là encore, il est probable que les prochaines années feront progresser la technologie au point que même les experts ne pourront plus faire la différence dans la plupart des contextes. Il n’est pas raisonnable d’attendre des gens ordinaires qu’ils réalisent ce processus déjà difficile. En fin de compte, la reconnaissance des contenus générés deviendra une compétence culturelle et médiatique essentielle, mais elle devra être développée dans le contexte de ces outils, car nous ne pouvons pas le faire à l’avance. Jusqu’à ce que nous nous entraînions, en tant que culture, à différencier l’original du généré, il sera très utile d’utiliser des signaux comme ceux-ci.

De telles règles ne risquent-elles pas d’entraver l’innovation et le progrès ?

Rien dans ces règles ne limite ce que ces modèles peuvent faire, seulement comment ils le font publiquement. L’interdiction de prendre des décisions mortelles ne signifie pas qu’un modèle ne peut pas sauver des vies, mais seulement que nous devrions choisir, en tant que société, de ne pas leur faire implicitement confiance pour le faire indépendamment de l’apport humain. Il en va de même pour la langue, qui n’empêche pas un modèle de trouver ou de fournir des informations, ou de remplir une fonction utile, mais seulement de le faire sous l’apparence d’un être humain.

Vous savez que cela ne marchera pas, n’est-ce pas ?

Mais ça valait le coup d’essayer.

IA