Contenido
Intrinsic lève 3,1 millions de dollars pour lutter contre les comportements abusifs en ligne
Il y a quelques années, Karine Mellata et Michael Lin se sont rencontrés alors qu’ils travaillaient dans l’équipe d’ingénierie de la fraude et des risques algorithmiques d’Apple. Tous deux ingénieurs, Mellata et Lin étaient impliqués dans la résolution des problèmes de cyberharcèlement, tels que le spam, les bots, la sécurité des comptes et la fraude des développeurs, pour la base de clients en constante croissance d’Apple.
Malgré leurs efforts pour développer de nouveaux modèles afin de suivre les évolutions des schémas d’abus, Mellata et Lin ont réalisé qu’ils étaient en retard et se retrouvaient à reconstruire les éléments clés de leur infrastructure de confiance et de sécurité.
« Alors que la réglementation exige des équipes qu’elles centralisent leurs réponses en matière de confiance et de sécurité, nous avons vu une véritable opportunité de contribuer à la modernisation de cette industrie et de construire un internet plus sûr pour tous », a déclaré Mellata dans une interview par e-mail accordée à nous. « Nous rêvions d’un système qui pourrait s’adapter aussi rapidement que l’abus lui-même. »
La plateforme d’Intrinsic pour lutter contre les comportements abusifs en ligne
Mellata et Lin ont donc co-fondé Intrinsic, une start-up qui vise à fournir aux équipes de sécurité les outils nécessaires pour prévenir les comportements abusifs sur leurs produits. Intrinsic a récemment levé 3,1 millions de dollars dans une série de financement qui a réuni Urban Innovation Fund, Y Combinator, 645 Ventures et Okta.
La plateforme d’Intrinsic est conçue pour modérer à la fois le contenu généré par les utilisateurs et par l’intelligence artificielle, fournissant une infrastructure permettant aux clients – principalement des entreprises de médias sociaux et des places de marché de commerce électronique – de détecter et de prendre des mesures contre le contenu qui viole leurs politiques. Intrinsic se concentre sur l’intégration de la sécurité des produits, orchestrant automatiquement des tâches telles que la suppression de comptes utilisateurs et la signalisation de contenu à examiner.
« Intrinsic est une plateforme de modération de contenu utilisant l’intelligence artificielle entièrement personnalisable », explique Mellata. « Par exemple, Intrinsic peut aider une société de publication qui génère du matériel marketing à éviter de donner des conseils financiers, ce qui entraînerait des responsabilités légales. Ou nous pouvons aider les places de marché à détecter des annonces pour des poings américains, qui sont illégaux en Californie mais pas au Texas. »
Mellata soutient qu’il n’existe pas de classificateurs prêts à l’emploi pour ces types de catégories nuancées, et qu’une équipe de confiance et de sécurité bien dotée aurait besoin de plusieurs semaines, voire de plusieurs mois, de temps d’ingénierie pour ajouter de nouvelles catégories de détection automatisée en interne.
Intrinsic se distingue de ses concurrents
Interrogée sur les plateformes concurrentes telles que Spectrum Labs, Azure et Cinder (qui est presque un concurrent direct), Mellata affirme que Intrinsic se distingue par sa (1) explicabilité et (2) ses outils considérablement élargis. Intrinsic permet aux clients de « l’interroger » sur les erreurs qu’il commet dans les décisions de modération du contenu et offre des explications sur ses raisonnements. La plateforme propose également des outils de révision et d’étiquetage manuels qui permettent aux clients d’affiner les modèles de modération sur leurs propres données.
« La plupart des solutions conventionnelles de confiance et de sécurité ne sont pas flexibles et n’ont pas été conçues pour évoluer avec les abus », explique Mellata. « Les équipes de confiance et de sécurité aux ressources limitées recherchent désormais davantage l’aide de fournisseurs et cherchent à réduire les coûts de modération tout en maintenant des normes de sécurité élevées. »
En l’absence d’un audit de tierce partie, il est difficile de dire à quel point les modèles de modération d’un fournisseur sont précis, et s’ils sont susceptibles d’être affectés par les types de biais qui touchent les modèles de modération du contenu ailleurs. Mais Intrinsic semble gagner du terrain grâce à la signature de contrats par des clients « importants et établis » dans une fourchette de « six chiffres » en moyenne.
Les projets à court terme d’Intrinsic
Les projets à court terme d’Intrinsic consistent à agrandir son équipe de trois personnes et à étendre sa technologie de modération pour couvrir non seulement le texte et les images, mais aussi la vidéo et l’audio.
« Le ralentissement plus général de la technologie suscite un intérêt croissant pour l’automatisation de la confiance et de la sécurité, ce qui place Intrinsic dans une position unique », déclare Mellata. « Les directeurs des opérations se soucient de réduire les coûts. Les directeurs de la conformité se préoccupent de réduire les risques. Intrinsic aide dans les deux cas. Nous sommes moins chers et plus rapides, et nous détectons beaucoup plus d’abus que les fournisseurs existants ou les solutions internes équivalentes. »