L’Inde abandonne son projet de soumettre à autorisation le lancement de modèles d’IA

L’Inde abandonne son projet de soumettre à autorisation le lancement de modèles d’IA

L’Inde revient sur un récent avis relatif à l’IA après avoir reçu des critiques de la part de nombreux entrepreneurs et investisseurs locaux et internationaux.

Le ministère de l’électronique et des technologies de l’information a communiqué vendredi aux acteurs de l’industrie un avis actualisé sur l’IA qui ne leur demande plus d’obtenir l’approbation du gouvernement avant de lancer ou de déployer un modèle d’IA auprès des utilisateurs sur le marché d’Asie du Sud.

Selon les directives révisées, il est conseillé aux entreprises d’étiqueter les modèles d’IA non testés et non fiables afin d’informer les utilisateurs de leur faillibilité ou de leur manque de fiabilité potentiels.

Cette révision fait suite aux critiques sévères formulées au début du mois par de nombreuses personnalités à l’encontre du ministère indien des technologies de l’information. Martin Casado, partenaire de la société de capital-risque Andreessen Horowitz, avait qualifié la décision de l’Inde de « parodie ».

L’avis du 1er mars marque également un revirement par rapport à l’approche non interventionniste de l’Inde en matière de réglementation de l’IA. Il y a moins d’un an, le ministère avait refusé de réglementer la croissance de l’IA, estimant que le secteur était vital pour les intérêts stratégiques de l’Inde.

Le nouvel avis, comme l’original au début du mois, n’a pas été publié en ligne, mais TechCrunch en a examiné une copie.

Le ministère a déclaré au début du mois que, bien que l’avis ne soit pas juridiquement contraignant, il indique qu’il s’agit de « l’avenir de la réglementation » et que le gouvernement exige qu’il soit respecté.

L’avis souligne que les modèles d’IA ne doivent pas être utilisés pour partager des contenus illégaux en vertu de la loi indienne et ne doivent pas permettre les préjugés, la discrimination ou les menaces à l’intégrité du processus électoral. Il est également conseillé aux intermédiaires d’utiliser des « fenêtres contextuelles de consentement » ou des mécanismes similaires pour informer explicitement les utilisateurs du manque de fiabilité des résultats générés par l’IA.

Le ministère a continué à mettre l’accent sur la nécessité de veiller à ce que les deepfakes et les fausses informations soient facilement identifiables, en conseillant aux intermédiaires d’étiqueter ou d’intégrer le contenu avec des métadonnées ou des identifiants uniques. Il n’exige plus des entreprises qu’elles conçoivent une technique permettant d’identifier l' »auteur » d’un message particulier.

IA