Google met l’IA générative au service de la cybersécurité

Google met l’IA générative au service de la cybersécurité

Une nouvelle tendance émerge dans le domaine de l’IA générative – l’IA générative pour la cybersécurité – et Google fait partie de ceux qui cherchent à s’y lancer.

Lors de la RSA Conference 2023 aujourd’hui, Google a annoncé Cloud Security AI Workbench, une suite de cybersécurité alimentée par un modèle de langage d’IA spécialisé dans la « sécurité » appelé Sec-PaLM. Une ramification du modèle PaLM de Google, Sec-PaLM est « affiné pour les cas d’utilisation de la sécurité », dit Google – incorporant des renseignements de sécurité tels que la recherche sur les vulnérabilités logicielles, les logiciels malveillants, les indicateurs de menace et les profils d’acteurs de menace comportementale.

Cloud Security AI Workbench englobe une gamme de nouveaux outils alimentés par l’IA, comme Threat Intelligence AI de Mandiant, qui s’appuiera sur Sec-PaLM pour trouver, résumer et agir sur les menaces de sécurité. (VirusTotal, autre propriété de Google, utilisera Sec-PaLM pour aider les abonnés à analyser et à expliquer le comportement des scripts malveillants.

Par ailleurs, Sec-PaLM aidera les clients de Chronicle, le service de cybersécurité en nuage de Google, à rechercher des événements de sécurité et à interagir « de manière conservatrice » avec les résultats. Les utilisateurs du Security Command Center AI de Google, quant à eux, obtiendront des explications « lisibles par l’homme » sur l’exposition aux attaques grâce à Sec-PaLM, y compris les actifs touchés, les mesures d’atténuation recommandées et les résumés des risques pour les conclusions en matière de sécurité, de conformité et de protection de la vie privée.

« Alors que l’IA générative a récemment captivé l’imagination, Sec-PaLM est basé sur des années de recherche fondamentale sur l’IA par Google et DeepMind, et sur l’expertise approfondie de nos équipes de sécurité », a écrit Google dans un billet de blog ce matin. « Nous commençons à peine à réaliser la puissance de l’application de l’IA générative à la sécurité, et nous sommes impatients de continuer à tirer parti de cette expertise pour nos clients et de faire progresser la communauté de la sécurité. »

Ces ambitions sont plutôt audacieuses, surtout si l’on considère que VirusTotal Code Insight, le premier outil du Cloud Security AI Workbench, n’est pour l’instant disponible qu’en avant-première limitée. (Google indique qu’il prévoit de proposer le reste de l’offre à des « testeurs de confiance » dans les mois à venir). Il est franchement difficile de savoir si Sec-PaLM fonctionne – ou ne fonctionne pas – dans la pratique. Certes, les « mesures d’atténuation recommandées et les résumés des risques » semblent utiles, mais les suggestions sont-elles tellement meilleures ou plus précises parce qu’un modèle d’IA les a produites ?

Après tout, les modèles de langage de l’IA – même s’ils sont à la pointe de la technologie – font des erreurs. Et ils sont susceptibles de subir des attaques telles que l’injection d’invite, qui peut les amener à se comporter d’une manière que leurs créateurs n’avaient pas prévue.

Cela n’arrête pas les géants de la technologie, bien sûr. En mars, Microsoft a lancé Security Copilot, un nouvel outil qui vise à « résumer » et à « donner du sens » aux renseignements sur les menaces en utilisant des modèles d’IA générative d’OpenAI, y compris GPT-4. Dans les documents de presse, Microsoft – à l’instar de Google – affirme que l’IA générative permettra aux professionnels de la sécurité d’être mieux équipés pour lutter contre les nouvelles menaces.

Le jury ne s’est pas encore prononcé sur ce point. En vérité, l’IA générative pour la cybersécurité pourrait s’avérer être plus un battage médiatique qu’autre chose – il y a une pénurie d’études sur son efficacité. Avec un peu de chance, nous verrons les résultats assez rapidement, mais en attendant, prenez les affirmations de Google et de Microsoft avec un grain de sel.

IA