Les travailleurs qui ont rendu le ChatGPT moins nocif demandent aux législateurs de mettre un terme à l’exploitation présumée par les grandes entreprises technologiques.

Les travailleurs qui ont rendu le ChatGPT moins nocif demandent aux législateurs de mettre un terme à l’exploitation présumée par les grandes entreprises technologiques.

Les travailleurs kenyans qui ont aidé à supprimer les contenus nuisibles sur ChatGPT, le moteur de recherche intelligent d’OpenAI qui génère du contenu en fonction des demandes de l’utilisateur, ont déposé une pétition auprès des législateurs du pays leur demandant d’ouvrir une enquête sur l’externalisation de la modération de contenu et du travail d’IA par les grandes entreprises technologiques au Kenya.

Les pétitionnaires souhaitent que des enquêtes soient menées sur « la nature du travail, les conditions de travail et les opérations » des grandes entreprises technologiques qui externalisent leurs services au Kenya par l’intermédiaire de sociétés telles que Sama – qui est au cœur de plusieurs litiges portant sur des allégations d’exploitation, de lutte contre les syndicats et de licenciements massifs illégaux de modérateurs de contenu.

La pétition fait suite à un rapport du Time qui détaillait la rémunération pitoyable des travailleurs de Sama qui rendaient ChatGPT moins toxique, ainsi que la nature de leur travail, qui exigeait de lire et d’étiqueter des textes graphiques, décrivant notamment des scènes de meurtre, de bestialité et de viol. Le rapport indique qu’à la fin de 2021, Sama a été engagé par OpenAI pour « étiqueter des descriptions textuelles d’abus sexuels, de discours haineux et de violence » dans le cadre de la construction d’un outil (qui a été intégré à ChatGPT) pour détecter les contenus toxiques.

Les travailleurs affirment qu’ils ont été exploités, qu’ils n’ont pas bénéficié d’un soutien psychosocial et qu’ils ont été exposés à des contenus nocifs qui les ont laissés avec une « maladie mentale grave ». Les travailleurs veulent que les législateurs « réglementent l’externalisation des technologies nocives et dangereuses » et protègent les travailleurs qui s’en chargent.

A lire aussi  Le Pixel 8 Pro exécute les modèles d'IA générative de Google sur l'appareil.

Ils leur demandent également d’adopter une législation réglementant « l’externalisation de travaux technologiques nocifs et dangereux et protégeant les travailleurs qui y sont engagés ».

Sama déclare compter parmi ses clients 25 % des entreprises du classement Fortune 50, dont Google et Microsoft. L’entreprise, basée à San Francisco, se consacre principalement à l’annotation, à la curation et à la validation des données de vision par ordinateur. Elle emploie plus de 3 000 personnes dans ses centres, dont celui du Kenya. Au début de l’année, Sama a abandonné les services de modération de contenu pour se concentrer sur l’annotation des données de vision par ordinateur, licenciant 260 personnes.

La réponse d’OpenAI à l’exploitation présumée reconnaît que le travail est difficile, ajoutant qu’elle a établi et partagé des normes éthiques et de bien-être (sans donner plus de détails sur les mesures exactes) avec ses annotateurs de données pour que le travail soit effectué « humainement et volontairement ».

Ils ont noté que pour construire une intelligence artificielle générale sûre et bénéfique, l’annotation des données humaines était l’un des nombreux volets de leur travail visant à recueillir les réactions humaines et à guider les modèles vers un comportement plus sûr dans le monde réel.

« Nous reconnaissons qu’il s’agit d’un travail difficile pour nos chercheurs et nos travailleurs de l’annotation au Kenya et dans le monde entier – leurs efforts pour assurer la sécurité des systèmes d’IA ont été immensément précieux », a déclaré le porte-parole de l’OpenAI.

Sama a déclaré à TechCrunch qu’elle était prête à travailler avec le gouvernement kenyan « pour s’assurer que les protections de base sont en place dans toutes les entreprises ». L’entreprise a déclaré qu’elle accueillait favorablement les audits de ses conditions de travail par des tiers, ajoutant que les employés disposaient de plusieurs canaux pour faire part de leurs préoccupations, et qu’elle avait « effectué de nombreuses évaluations et audits externes et internes pour s’assurer que nous payons des salaires équitables et que nous offrons un environnement de travail digne. »

A lire aussi  Amazon fait appel à l'IA pour aider les clients à trouver des vêtements à leur taille lors de leurs achats en ligne

IA