YouTube adapte ses règles pour faire face à l’afflux de vidéos d’IA

YouTube adapte ses règles pour faire face à l’afflux de vidéos d’IA

YouTube a annoncé aujourd’hui son approche du traitement des contenus créés par l’IA sur sa plateforme, avec une série de nouvelles règles concernant la divulgation responsable ainsi que de nouveaux outils pour demander le retrait des deepfakes, entre autres choses. La société explique que, bien qu’elle dispose déjà de règles interdisant les médias manipulés, l’IA a nécessité la création de nouvelles règles en raison de son potentiel à induire les spectateurs en erreur s’ils ne savent pas que la vidéo a été « modifiée ou créée synthétiquement ».

L’un des changements qui sera mis en œuvre concerne la création de nouvelles exigences en matière de divulgation pour les créateurs de YouTube. Désormais, ils devront indiquer s’ils ont créé un contenu modifié ou synthétique qui semble réaliste, y compris les vidéos réalisées à l’aide d’outils d’intelligence artificielle. Par exemple, cette obligation d’information s’appliquera si un créateur télécharge une vidéo qui semble décrire un événement du monde réel qui n’a jamais eu lieu, ou qui montre quelqu’un disant quelque chose qu’il n’a jamais dit ou faisant quelque chose qu’il n’a jamais fait.

Crédits d’image : YouTube

Il convient de souligner que cette divulgation est limitée au contenu qui « semble réaliste » et qu’il ne s’agit pas d’une obligation de divulgation générale pour toutes les vidéos synthétiques produites par l’IA.

« Nous voulons que les spectateurs sachent à quoi s’en tenir lorsqu’ils regardent un contenu réaliste, y compris lorsque des outils d’IA ou d’autres altérations synthétiques ont été utilisés pour le générer », a déclaré Jack Malon, porte-parole de YouTube, à TechCrunch. « C’est particulièrement important lorsque le contenu aborde des sujets sensibles, comme les élections ou les conflits en cours.

Crédits d’image : YouTube

Le contenu généré par l’IA est un domaine dans lequel YouTube lui-même s’est lancé. La société a annoncé en septembre qu’elle se préparait à lancer, au début de l’année prochaine, une nouvelle fonctionnalité d’IA générative appelée Dream Screen, qui permettrait aux utilisateurs de YouTube de créer une vidéo ou une image d’arrière-plan générée par l’IA en tapant ce qu’ils veulent voir. Tous les produits et fonctionnalités d’IA générative de YouTube seront automatiquement étiquetés comme modifiés ou synthétiques, nous dit-on.

Crédits d’image : YouTube

La société prévient également que les créateurs qui ne divulguent pas correctement leur utilisation de l’IA seront soumis à « la suppression du contenu, la suspension du programme de partenariat de YouTube ou d’autres sanctions ». YouTube affirme qu’il travaillera avec les créateurs pour s’assurer qu’ils comprennent les exigences avant qu’elles ne soient appliquées. Il précise toutefois que certains contenus d’IA, même s’ils sont labellisés, peuvent être supprimés s’ils sont utilisés pour montrer une « violence réaliste » dans le but de choquer ou de dégoûter les téléspectateurs. Cette considération semble opportune, étant donné que des « deepfakes » ont déjà été utilisés pour semer la confusion dans l’esprit du public à propos de la guerre entre Israël et le Hamas.

A lire aussi  Artifact, l'application d'actualités devenue concurrente de X, permet désormais aux utilisateurs de générer des images d'IA pour leurs posts.

L’avertissement de YouTube concernant les mesures punitives fait suite à un récent assouplissement de sa politique de sanction. À la fin du mois d’août, la société a annoncé qu’elle offrait aux créateurs de nouveaux moyens d’effacer leurs avertissements avant qu’ils ne se transforment en grèves susceptibles d’entraîner la suppression de leur chaîne. Ces modifications pourraient permettre aux créateurs de s’en tirer en ignorant soigneusement les règles de YouTube en choisissant le moment où ils publient un contenu contraire aux règles, puisqu’ils peuvent désormais suivre un cours de formation pour faire supprimer leurs avertissements. Les personnes déterminées à publier des contenus non approuvés savent désormais qu’elles peuvent prendre ce risque sans perdre totalement leur chaîne.

Si YouTube adopte une position plus souple à l’égard de l’IA en autorisant les créateurs à commettre des « erreurs » et à revenir ensuite pour publier d’autres vidéos, les dommages en termes de diffusion de fausses informations pourraient devenir un problème. La société ne précise pas non plus à quel point les règles de divulgation de l’IA doivent être systématiquement enfreintes avant qu’elle ne prenne des mesures punitives.

Parmi les autres changements figure la possibilité pour tout utilisateur de YouTube de demander la suppression d’un contenu généré par l’IA ou d’un autre contenu synthétique ou modifié qui simule une personne identifiable (deepfake), y compris son visage ou sa voix. L’entreprise précise toutefois que tous les contenus signalés ne seront pas supprimés, laissant ainsi la place à la parodie ou à la satire. Elle précise également qu’elle examinera si la personne demandant le retrait peut être identifiée de manière unique ou si la vidéo met en scène un fonctionnaire ou une autre personne connue, auquel cas « la barre peut être plus haute », précise YouTube.

A lire aussi  Meta annonce une croissance de 11 % de son chiffre d'affaires, mais le métavers souffre encore

Parallèlement à l’outil de suppression des deepfakes, la société introduit une nouvelle fonctionnalité qui permettra aux partenaires musicaux de demander la suppression de la musique générée par l’IA qui imite la voix d’un artiste qui chante ou qui rappe. YouTube a déclaré qu’il mettait au point un système qui permettrait à terme de rémunérer les artistes et les titulaires de droits pour la musique générée par l’IA, ce qui semble être une étape intermédiaire qui permettrait simplement de retirer du contenu en attendant. YouTube tiendra également compte de certains éléments, en précisant que les contenus faisant l’objet d’un reportage, d’une analyse ou d’une critique des voix synthétiques pourront être autorisés à rester en ligne. Le système de retrait de contenu ne sera également accessible qu’aux labels et distributeurs représentant les artistes participant aux expériences d’IA de YouTube.

L’IA est utilisée dans d’autres domaines d’activité de YouTube, notamment en augmentant le travail de ses 20 000 réviseurs de contenu dans le monde entier et en identifiant de nouvelles formes d’abus et de menaces, selon l’annonce. La société explique qu’elle comprend que de mauvais acteurs tenteront de contourner ses règles et qu’elle fera évoluer ses protections et ses politiques en fonction des commentaires des utilisateurs.

« Nous n’en sommes qu’au début de notre voyage pour débloquer de nouvelles formes d’innovation et de créativité sur YouTube grâce à l’IA générative. Nous sommes extrêmement enthousiastes quant au potentiel de cette technologie, et nous savons que ce qui va suivre aura des répercussions sur les industries créatives pour les années à venir », peut-on lire sur le blog de YouTube, rédigé conjointement par les vice-présidentes de la gestion des produits Jennifer Flannery O’Connor et Emily Moxley. « Nous prenons le temps d’équilibrer ces avantages et d’assurer la sécurité de notre communauté en cette période charnière. Nous travaillerons main dans la main avec les créateurs, les artistes et les autres acteurs de l’industrie de la création pour construire un avenir qui nous soit profitable à tous.

A lire aussi  Alibaba va se séparer de son unité de cloud, d'IA et de messagerie commerciale.

IA