L’OpenAI saborde le détecteur de texte écrit par l’IA en raison de son « faible taux de précision ».

L’OpenAI saborde le détecteur de texte écrit par l’IA en raison de son « faible taux de précision ».

L’OpenAI a fermé son classificateur d’IA, un outil qui prétendait déterminer la probabilité qu’un passage de texte ait été écrit par une autre IA. Alors que de nombreuses personnes l’ont utilisé, et peut-être imprudemment, pour attraper des tricheurs à faible effort, OpenAI l’a retiré en raison de son « faible taux de précision », largement critiqué.

La théorie selon laquelle le texte généré par l’IA possède une caractéristique ou un modèle d’identification qui peut être détecté de manière fiable semble intuitive, mais jusqu’à présent, cela ne s’est pas vraiment vérifié dans la pratique. Bien que certains textes générés puissent présenter un indice évident, les différences entre les grands modèles de langage et la rapidité avec laquelle ils ont été développés ont rendu ces indices pratiquement impossibles à utiliser.

Le propre test de TechCrunch sur un ensemble d’outils de détection d’écriture par l’IA a conclu qu’ils sont au mieux aléatoires et au pire totalement inutiles. Sur sept extraits de texte générés et soumis à divers détecteurs, GPTZero en a identifié cinq correctement et le classificateur d’OpenAI un seul. Et ce, avec un modèle de langage qui n’était même pas à la pointe de la technologie à l’époque.

Mais certains ont pris les affirmations de détection au pied de la lettre, ou plutôt bien au-delà, puisque OpenAI a livré l’outil de classification avec une liste de limitations suffisamment importante pour que l’on se demande pourquoi ils l’ont mis sur le marché. Les personnes qui craignaient que leurs étudiants, leurs candidats à l’emploi ou leurs travailleurs indépendants soumettent des textes générés les soumettaient au classificateur pour le tester, et bien que les résultats n’auraient pas dû être fiables, ils l’ont parfois été.

Étant donné que les modèles de langage n’ont fait que s’améliorer et proliférer, il semble que quelqu’un au sein de l’entreprise ait décidé qu’il était temps de mettre hors ligne cet outil capricieux. « Nous nous efforçons d’intégrer les commentaires et nous recherchons actuellement des techniques de provenance plus efficaces pour le texte », peut-on lire dans un addendum du 20 juillet à l’annonce du classificateur. (Decrypt semble avoir été le premier à remarquer le changement).

J’ai posé des questions sur le calendrier et le raisonnement derrière la fermeture du classificateur et je mettrai à jour si j’ai des nouvelles. Mais il est curieux que cela se produise au moment où OpenAI a rejoint plusieurs autres entreprises dans un « engagement volontaire » de la Maison Blanche pour développer l’IA de manière éthique et transparente.

Parmi les engagements pris par les entreprises figure celui de développer des méthodes robustes de filigrane et/ou de détection. Ou, en tout cas, de tenter de le faire : Bien que toutes les entreprises aient fait du bruit à cet effet au cours des six derniers mois environ, nous n’avons pas encore vu de filigrane ou de méthode de détection qui ne soit pas trivialement contourné.

Il ne fait aucun doute que le premier à accomplir cet exploit sera richement récompensé (un tel outil, s’il est vraiment fiable, serait inestimable dans d’innombrables circonstances), de sorte qu’il est probablement superflu d’en faire une partie intégrante des accords sur l’IA.

IA