Clarity lève 16 millions de dollars pour lutter contre les deepfakes par la détection

Clarity lève 16 millions de dollars pour lutter contre les deepfakes par la détection

Faux porno de Taylor Swift. Des images photoréalistes – mais fictives – de Gaza. La liste des « deepfakes » déconcertants est longue et, à mesure que les outils de création de « deepfakes » deviennent plus faciles et moins coûteux à utiliser, les vagues de « fakes » arrivent plus vite et plus fort.

Selon un récent sondage du Pew Center, environ deux tiers des Américains (66 %) disent qu’ils tombent au moins parfois sur des vidéos et des images modifiées destinées à induire en erreur, et 15 % d’entre eux les rencontrent souvent. Dans une enquête distincte menée par Axios et l’université de Syracuse auprès d’experts en IA, 62 % d’entre eux ont déclaré que la désinformation sera le plus grand défi à relever pour préserver l’authenticité et la crédibilité des informations à l’ère des contenus générés par l’IA.

Quelle est donc la solution ? Y en a-t-il une ?

Si vous parlez à des gens comme Michael Matias, spécialiste de la cybersécurité et cofondateur et PDG de Clarity, ils vous diront qu’il s’agit des détecteurs de deepfake. Matias a créé Clarity avec Gil Avriel et Natalie Fridman en 2022, dans le but de développer une technologie permettant de repérer les médias manipulés par l’IA – principalement les images.

Clarity fait partie des nombreux fournisseurs, petits et grands, qui s’efforcent de mettre au point des outils de détection des fausses images. Parmi les autres, citons Reality Defender, qui propose une plateforme pour isoler les faux textes, vidéos et images, et Sentinel, qui se concentre sur les images et vidéos truquées.

Il est difficile, en fait, de distinguer les offres de Clarity des autres – du moins pour cet auteur. Comme ses concurrents, Clarity dispose d’un outil de balayage disponible via une application et une API qui exploite plusieurs modèles d’IA pour comparer les médias téléchargés – vidéos, images et audio – à une base de données de deepfakes et d’images générées par l’IA. En outre, Clarity propose une forme de filigrane que les clients peuvent utiliser pour indiquer que leur contenu est légitime.

Mais Matias insiste sur le fait que les différentiateurs ne se situent pas au-dessus mais en dessous de la surface, avec la réponse rapide de Clarity aux nouveaux types de « deepfakes ».

« Au fond, Clarity exploite l’IA tout en fonctionnant comme une entreprise de cybersécurité », a déclaré M. Matias. « Clarity traite les deepfakes comme des virus, agissant comme des agents pathogènes qui bifurquent et se répliquent rapidement. En tant que telle, sa solution a également été construite pour bifurquer et se répliquer afin de maintenir l’adaptabilité et la résilience … L’équipe a construit une infrastructure et des modèles d’IA dédiés à l’accomplissement de la demande. »

Bien entendu, la précision dans le domaine de la détection des deepfakes est une cible mouvante. Même avec la meilleure expertise et le meilleur ensemble de technologies que l’on puisse acheter, il est impossible de gagner, compte tenu de la vitesse à laquelle les applications GenAI de création de deepfakes s’améliorent. C’est peut-être la raison pour laquelle certains acteurs majeurs, dont Google, Microsoft et AWS, adoptent des filigranes et des métadonnées de provenance plus sophistiqués comme mesures alternatives – bien qu’imparfaites – de lutte contre les deepfakes.

Quoi qu’il en soit, Clarity n’a pas eu de mal à attirer des soutiens. La start-up new-yorkaise, qui emploie 13 personnes, a récemment bouclé un tour de table de 16 millions de dollars, co-dirigé par Walden Catalyst Ventures et Bessemer Venture Partners, avec la participation de Secret Chord Ventures, Ascend Ventures et Flying Fish Partners.

Et il semble qu’elle se soit taillé un créneau. Au départ, Clarity – qui vend des abonnements ainsi que des plans de paiement à l’utilisation – cherchait des clients parmi les éditeurs de presse et le secteur public, y compris le gouvernement israélien. (Matias affirme que Clarity contribue à l’authentification et à la vérification des vidéos issues du conflit entre Israël et le Hamas). Mais l’entreprise s’est depuis étendue aux fournisseurs de services de vérification d’identité et à d’autres « grandes entreprises » dont le nom n’a pas été révélé.

« Il s’agit d’une course à l’armement rapide, tout comme la cybersécurité traditionnelle », a déclaré M. Matias. « Toute entreprise qui souhaite s’attaquer aux deepfakes doit être aussi rapide que ceux qui les créent et les diffusent.

IA