Intrinsic, soutenu par Y Combinator, construit une infrastructure pour les équipes chargées de la confiance et de la sécurité.

Intrinsic, soutenu par Y Combinator, construit une infrastructure pour les équipes chargées de la confiance et de la sécurité.

Il y a quelques années, Karine Mellata et Michael Lin se sont rencontrés alors qu’ils travaillaient au sein de l’équipe d’ingénierie de la fraude et du risque algorithmique d’Apple. Tous deux ingénieurs, Karine Mellata et Michael Lin aidaient à résoudre les problèmes d’abus en ligne, notamment le spam, le botting, la sécurité des comptes et la fraude des développeurs pour la clientèle croissante d’Apple.

Malgré leurs efforts pour développer de nouveaux modèles afin de suivre l’évolution des abus, Mellata et Lin ont senti qu’ils prenaient du retard et qu’ils devaient reconstruire des éléments essentiels de leur infrastructure de confiance et de sécurité.

« Alors que la réglementation oblige les équipes à centraliser leurs réponses ad hoc en matière de confiance et de sécurité, nous avons vu une véritable opportunité de contribuer à la modernisation de ce secteur et à la construction d’un Internet plus sûr pour tous », a déclaré Mellata à TechCrunch lors d’une interview par courrier électronique. « Nous avons rêvé d’un système qui pourrait s’adapter comme par magie aussi rapidement que les abus eux-mêmes.

Mellata et Lin ont donc cofondé Intrinsic, une startup qui vise à donner aux équipes de sécurité les outils nécessaires pour prévenir les comportements abusifs sur leurs produits. Intrinsic a récemment levé 3,1 millions de dollars dans le cadre d’un tour de table de démarrage auquel ont participé Urban Innovation Fund, Y Combinator, 645 Ventures et Okta.

La plateforme d’Intrinsic est conçue pour modérer les contenus générés par les utilisateurs et l’IA, et fournit une infrastructure permettant aux clients – principalement les entreprises de médias sociaux et les places de marché de commerce électronique – de détecter les contenus qui violent leurs politiques et de prendre les mesures qui s’imposent. Intrinsic se concentre sur l’intégration de produits de sécurité, orchestrant automatiquement des tâches telles que le bannissement d’utilisateurs et le signalement de contenus pour examen.

« Intrinsic est une plateforme de modération de contenu IA entièrement personnalisable », a déclaré Mellata. « Par exemple, Intrinsic peut aider une société d’édition qui génère des documents marketing à éviter de donner des conseils financiers, ce qui entraîne des responsabilités légales. Nous pouvons également aider les places de marché à détecter les inscriptions telles que les poings américains, qui sont illégales en Californie mais pas au Texas. »

Mellata fait valoir qu’il n’existe pas de classificateurs prêts à l’emploi pour ces types de catégories nuancées, et que même une équipe de confiance et de sécurité bien dotée en ressources aurait besoin de plusieurs semaines – voire de plusieurs mois – de temps d’ingénierie pour ajouter de nouvelles catégories de détection automatisées en interne.

Interrogé sur les plateformes concurrentes comme Spectrum Labs, Azure et Cinder (qui est presque un concurrent direct), Mellata dit qu’il considère qu’Intrinsic se distingue par (1) sa capacité d’explication et (2) son outillage considérablement élargi. Intrinsic, explique-t-il, permet aux clients de lui poser des questions sur les erreurs commises dans les décisions de modération de contenu et offre des explications sur son raisonnement. La plateforme héberge également des outils de révision manuelle et d’étiquetage qui permettent aux clients d’affiner les modèles de modération sur leurs propres données.

« La plupart des solutions conventionnelles de confiance et de sécurité ne sont pas flexibles et n’ont pas été conçues pour évoluer avec les abus », a déclaré M. Mellata. « Les équipes chargées de la confiance et de la sécurité, dont les ressources sont limitées, recherchent plus que jamais l’aide d’un fournisseur et cherchent à réduire les coûts de modération tout en maintenant des normes de sécurité élevées. »

En l’absence d’audit par un tiers, il est difficile de dire à quel point les modèles de modération d’un fournisseur donné sont précis – et s’ils sont sensibles aux types de biais qui affectent les modèles de modération de contenu dans d’autres pays. Quoi qu’il en soit, Intrinsic semble gagner du terrain grâce à des entreprises clientes « importantes et bien établies » qui signent des contrats à six chiffres en moyenne.

Les projets à court terme d’Intrinsic consistent à augmenter la taille de son équipe de trois personnes et à étendre sa technologie de modération pour couvrir non seulement le texte et les images, mais aussi la vidéo et l’audio.

« Le ralentissement général de la technologie suscite un intérêt accru pour l’automatisation de la confiance et de la sécurité, ce qui place Intrinsic dans une position unique », a déclaré M. Mellata. « Les directeurs d’exploitation se soucient de réduire les coûts. Les responsables de la conformité se soucient de réduire les risques. Intrinsic les aide dans les deux cas. Nous sommes moins chers, plus rapides et nous détectons beaucoup plus d’abus que les fournisseurs existants ou les solutions internes équivalentes. »

IA