L’Inde revient sur sa position en matière d’IA et exige l’approbation du gouvernement pour le lancement de modèles

L’Inde revient sur sa position en matière d’IA et exige l’approbation du gouvernement pour le lancement de modèles

L’Inde s’est immiscée dans le débat mondial sur l’IA en publiant un avis qui exige que les entreprises technologiques obtiennent l’autorisation du gouvernement avant de lancer de nouveaux modèles.

Le ministère indien de l’électronique et des technologies de l’information a publié l’avis aux entreprises vendredi. L’avis, qui n’a pas été publié dans le domaine public mais dont TechCrunch a examiné une copie, demande également aux entreprises technologiques de s’assurer que leurs services ou produits « ne permettent pas de biais ou de discrimination et ne menacent pas l’intégrité du processus électoral ».

Bien que le ministère admette que l’avis n’est pas juridiquement contraignant, le vice-ministre indien des technologies de l’information, Rajeev Chandrasekhar, déclare que l’avis « signale qu’il s’agit de l’avenir de la réglementation ».

Il ajoute : « Nous le faisons à titre de conseil : « Nous le faisons aujourd’hui sous la forme d’un avis vous demandant de vous y conformer.

Dans son avis, le ministère invoque les pouvoirs qui lui sont conférés par la loi sur les technologies de l’information de 2000 et les règles sur les technologies de l’information de 2021. Il demande une mise en conformité avec « effet immédiat » et demande aux entreprises technologiques de lui soumettre un « rapport sur les mesures prises et l’état d’avancement » dans les 15 jours.

Le nouvel avis, qui demande également aux entreprises technologiques d’indiquer « de manière appropriée » la « faillibilité ou le manque de fiabilité possibles et inhérents » des résultats générés par leurs modèles d’IA, marque un revirement par rapport à la précédente approche non interventionniste de l’Inde en matière de réglementation de l’IA. Il y a moins d’un an, le ministère avait refusé de réglementer la croissance de l’IA, estimant que le secteur était vital pour les intérêts stratégiques de l’Inde.

A lire aussi  Common Sense Media signale plusieurs produits d'IA populaires comme dangereux pour les enfants

La décision de l’Inde a pris de nombreux dirigeants du secteur par surprise. De nombreuses startups et sociétés de capital-risque indiennes se disent effrayées par le nouvel avis et pensent qu’une telle réglementation entravera la capacité du pays à rivaliser dans la course mondiale, où il est déjà à la traîne.

« J’ai été tellement stupide en pensant que j’allais apporter la GenAI à l’agriculture indienne à partir de SF ». a écrit Pratik Desai, fondateur de la startup Kisan AI. « Nous étions en train de former un modèle multimodal à faible coût pour les ravageurs et les maladies, et nous étions très enthousiastes à ce sujet. C’est terrible et démotivant après avoir travaillé 4 ans à temps plein pour introduire l’IA dans ce domaine en Inde. »

De nombreux dirigeants de la Silicon Valley ont également critiqué le changement de politique de l’Inde. Aravind Srinivas, cofondateur et directeur général de Perplexity AI, l’une des start-ups les plus en vue dans le domaine de l’IA, a déclaré que le nouvel avis de New Delhi était un « .mauvaise décision de l’Inde. »

Martin Casado, partenaire de la société de capital-risque Andreessen Horowitz, a déclaré« Bon sang de bonsoir. Quelle parodie. »

Cet avis fait suite à la déception exprimée par M. Chandrasekhar à l’égard d’une certaine réponse donnée par Gemini de Google le mois dernier. Le mois dernier, un utilisateur a demandé à Gemini, anciennement connu sous le nom de Bard, si le Premier ministre indien Narendra Modi était un fasciste.

En réponse, Gemini, citant des experts dont il n’a pas dévoilé l’identité, a déclaré que M. Modi avait été accusé de mettre en œuvre des politiques que certains avaient qualifiées de fascistes. M. Chandrasekhar a réagi à cet échange en avertissant Google que de telles réponses constituaient des « violations directes » des règles informatiques de 2021 ainsi que de « plusieurs dispositions du code pénal ».

A lire aussi  La nouveauté du moment : des plateformes d'IA qui empêchent les erreurs de l'IA de se produire

Le non-respect des dispositions de la loi et des règles sur les technologies de l’information entraînerait « des conséquences pénales potentielles pour les intermédiaires, les plateformes ou leurs utilisateurs lorsqu’ils sont identifiés », ajoute l’avis.

IA