La nouvelle fonction de sécurité de GitLab utilise l’IA pour expliquer les vulnérabilités aux développeurs

La nouvelle fonction de sécurité de GitLab utilise l’IA pour expliquer les vulnérabilités aux développeurs

La plateforme de développement GitLab a annoncé aujourd’hui une nouvelle fonction de sécurité pilotée par l’IA qui utilise un modèle de langage étendu pour expliquer les vulnérabilités potentielles aux développeurs, avec des plans d’extension pour résoudre automatiquement ces vulnérabilités à l’aide de l’IA à l’avenir.

Au début du mois, l’entreprise a annoncé un nouvel outil expérimental qui explique le code à un développeur – similaire à la nouvelle fonction de sécurité annoncée par GitLab – et une nouvelle fonction expérimentale qui résume automatiquement les commentaires sur les problèmes. Dans ce contexte, il convient également de noter que GitLab a déjà lancé l’année dernière un outil de complétion de code, qui est désormais disponible pour les utilisateurs de GitLab Ultimate et Premium, ainsi que sa fonction de suggestion de réviseurs basée sur le ML.

Crédits d’image : GitLab

La nouvelle fonction « explain this vulnerability » (expliquer cette vulnérabilité) vise à aider les équipes à trouver la meilleure façon de corriger une vulnérabilité dans le contexte de la base de code. C’est ce contexte qui fait la différence ici, car l’outil est capable de combiner les informations de base sur la vulnérabilité avec des informations spécifiques provenant du code de l’utilisateur. Cela devrait permettre de remédier plus facilement et plus rapidement à ces problèmes.

L’entreprise appelle sa philosophie générale concernant l’ajout de fonctions d’IA « vélocité avec garde-fous », c’est-à-dire la combinaison du code d’IA et de la génération de tests soutenue par la plateforme DevSecOps complète de l’entreprise pour s’assurer que tout ce que l’IA génère peut être déployé en toute sécurité.

A lire aussi  La startup d'IA Cohere, évaluée à plus de 2,1 milliards de dollars, lève 270 millions de dollars

GitLab a également souligné que toutes ses fonctions d’IA sont conçues dans le respect de la vie privée. « Si nous sommes touchant ynotre intellectuel propriété, qui est code, we sont seulement en cours à être l’envoi que à a modèle que est GitLabs ou est dans la base de données GitLab nuage de GitLab », m’a dit David DeSanto, directeur général de GitLab. « Te raison pour laquelle c’est important pour nous – et cela nous ramène à l’entreprise DevSecOps – est-ce que notre clients sont lourdement réglementé. Notre clients sont généralement très sécurité et conformité conscient, et nous savions nous pourrions pas construire a code suggestions solution que requis nous envoi il à a tiers-parti AI ». Il a également précisé que GitLab n’utilisera pas les données privées de ses clients pour entraîner ses modèles.

DeSanto a souligné que l’objectif global de GitLab pour son initiative d’IA est de décupler l’efficacité – et pas seulement l’efficacité du développeur individuel, mais le cycle de vie du développement dans son ensemble. Comme il l’a fait remarquer à juste titre, même si vous pouviez multiplier par 100 la productivité d’un développeur, les inefficacités en aval, lors de la révision du code et de sa mise en production, pourraient facilement l’annuler.

« Si développement est 20% de le vie cycle, même si nous faire que 50% plus efficace, vous êtes pas vraiment en cours de route à sentir « , a déclaré M. DeSanto. « Maintenant, si nous fabriquons le sécurité équipes, les opérations équipes, le équipes de conformité également plus efficace, puis comme an organisation, vous êtes aller à voir le voir ».

A lire aussi  Le sentiment anti-AI est très applaudi à SXSW 2024 : un cinéaste qualifie l'IA de "terrifiante bullsh**".

La fonction « expliquer ce code », par exemple, s’est avérée très utile non seulement pour les développeurs, mais aussi pour les équipes d’assurance qualité et de sécurité, qui ont désormais une meilleure compréhension de ce qu’elles doivent tester. C’est certainement la raison pour laquelle GitLab l’a étendue à l’explication des vulnérabilités. À long terme, l’idée est de développer des fonctionnalités permettant à ces équipes de générer automatiquement des tests unitaires et des analyses de sécurité, qui seraient ensuite intégrés à la plateforme GitLab dans son ensemble.

Selon le récent rapport DevSecOps de GitLab, 65 % des développeurs utilisent déjà l’IA et la ML dans leurs efforts de test ou prévoient de le faire au cours des trois prochaines années. Déjà, 36 % des équipes utilisent un outil d’IA/ML pour vérifier leur code avant même que les réviseurs de code ne le voient.

« Compte tenu des contraintes de ressources auxquelles les équipes DevSecOps sont confrontées, l’automatisation et l’intelligence artificielle deviennent une ressource stratégique », écrit Dave Steer de GitLab dans l’annonce d’aujourd’hui. « Notre plateforme DevSecOps aide les équipes à combler les lacunes critiques tout en appliquant automatiquement les politiques, en appliquant les cadres de conformité, en effectuant des tests de sécurité à l’aide des capacités d’automatisation de GitLab et en fournissant des recommandations assistées par l’IA – ce qui libère des ressources. »

IA