Distributional veut développer un logiciel révolutionnaire pour minimiser les dangers de l’IA – Découvrez comment !

Une entreprise propose une plateforme de test et d’évaluation de l’IA pour réduire les risques

Les entreprises sont de plus en plus curieuses de l’IA et des façons dont elle peut être utilisée pour augmenter la productivité. Cependant, elles sont également méfiantes vis-à-vis des risques. Selon une récente enquête de Workday, les entreprises citent la fiabilité des données sous-jacentes, les biais potentiels, ainsi que la sécurité et la confidentialité comme les principaux obstacles à la mise en œuvre de l’IA.

Prenant conscience de cette opportunité commerciale, Scott Clark, qui a précédemment co-fondé la plateforme d’entraînement et d’expérimentation en IA SigOpt (acquise par Intel en 2020), a entrepris de construire un logiciel qui rendrait l’IA sûre, fiable et sécurisée. Clark a lancé une entreprise, Distributional, pour mettre en place la première version de ce logiciel, dans le but de développer et de normaliser les tests pour différents cas d’utilisation de l’IA.

« Distributional construit la plateforme d’entreprise moderne pour les tests et l’évaluation de l’IA », a déclaré Clark dans une interview par e-mail avec Toukiela. « À mesure que la puissance des applications d’IA augmente, les risques de dommages augmentent également. Notre plateforme est conçue pour permettre aux équipes de produits d’IA d’identifier, de comprendre et de résoudre proactivement et en continu les risques liés à l’IA avant qu’ils ne nuisent à leurs clients en production. »

Une solution pour les défis de l’IA liés aux tests et à l’évaluation

Clark a été inspiré de lancer Distributional après avoir rencontré des défis liés à l’IA chez Intel après l’acquisition de SigOpt. En tant que vice-président et directeur général de l’IA et de l’informatique hautes performances chez Intel, il était presque impossible de s’assurer que des tests d’IA de haute qualité étaient effectués régulièrement.

« Les leçons que j’ai tirées de mes expériences ont souligné la nécessité de tests et d’évaluations de l’IA », a poursuivi Clark. « Que ce soit en raison d’hallucinations, d’instabilité, d’inexactitude, d’intégration ou de nombreux autres défis potentiels, les équipes ont souvent du mal à identifier, comprendre et résoudre les risques liés à l’IA par le biais de tests. Les tests appropriés de l’IA nécessitent une compréhension en profondeur et distributionnelle, ce qui est un problème difficile à résoudre. »

Le produit principal de Distributional vise à détecter et diagnostiquer les « dommages » de l’IA à partir de grands modèles de langage (comme ChatGPT d’OpenAI) et d’autres types de modèles d’IA, en essayant de déterminer semi-automatiquement quoi, comment et où tester les modèles. Le logiciel offre aux organisations une vue « complète » des risques liés à l’IA dans un environnement de pré-production similaire à un bac à sable.

« La plupart des équipes choisissent de supposer le risque de comportement du modèle et acceptent que les modèles auront des problèmes », a déclaré Clark. « Certaines peuvent essayer des tests manuels ad hoc pour trouver ces problèmes, ce qui est intensif en ressources, désorganisé et intrinsèquement incomplet. D’autres peuvent essayer de détecter passivement ces problèmes avec des outils de surveillance passive une fois que l’IA est en production… C’est pourquoi notre plateforme comprend un cadre de tests extensible pour tester et analyser en continu la stabilité et la robustesse, un tableau de bord de tests configurable pour visualiser et comprendre les résultats des tests, et une suite de tests intelligente pour concevoir, hiérarchiser et générer la bonne combinaison de tests. »

Une différenciation dans le domaine de l’entreprise

Clark n’a pas donné beaucoup de détails sur le fonctionnement de tout cela, ni sur les contours généraux de la plateforme de Distributional. Il a mentionné que c’était encore très tôt dans le processus et que Distributional était en train de co-concevoir le produit avec des partenaires d’entreprise.

Alors que Distributional n’a pas encore de revenus, de lancement ni de clients payants à proprement parler, comment peut-elle espérer rivaliser avec les plateformes existantes de tests et d’évaluation de l’IA déjà sur le marché ? Il y en a beaucoup, dont Kolena, Prolific, Giskard et Patronus – dont beaucoup sont bien financées. Et si la concurrence n’était pas déjà assez intense, les géants de la technologie tels que Google Cloud, AWS et Azure proposent également des outils d’évaluation des modèles.

Clark affirme que Distributional se différencie par l’orientation de son logiciel vers les entreprises. « Dès le premier jour, nous construisons un logiciel capable de répondre aux exigences de confidentialité des données, de mise à l’échelle et de complexité des grandes entreprises, tant dans les secteurs réglementés que non réglementés », a-t-il déclaré. « Les types d’entreprises avec lesquelles nous concevons notre produit ont des exigences qui vont au-delà des offres existantes disponibles sur le marché, qui ont tendance à être des outils axés sur les développeurs individuels. »

Les prochaines étapes pour Distributional

Si tout se passe comme prévu, Distributional commencera à générer des revenus l’année prochaine, une fois que sa plateforme sera disponible en version générale et que certains de ses partenaires de conception deviendront des clients payants. En attendant, la start-up cherche à lever des fonds auprès de capital-risqueurs ; Distributional a annoncé aujourd’hui la clôture d’un tour d’amorçage de 11 millions de dollars dirigé par Martin Casado d’Andreessen Horowitz, avec la participation d’Operator Stack, Point72 Ventures, SV Angel, Two Sigma et des investisseurs providentiels.

« Nous espérons instaurer un cercle vertueux pour nos clients », a déclaré Clark. « Avec de meilleurs tests, les équipes auront plus confiance dans le déploiement de l’IA dans leurs applications. À mesure qu’elles déploient davantage d’IA, elles verront son impact croître de manière exponentielle. Et à mesure qu’elles constateront cette augmentation d’impact, elles l’appliqueront à des problèmes plus complexes et plus significatifs, ce qui nécessitera encore plus de tests pour garantir sa sécurité, sa fiabilité et sa sécurité. »

Share your opinion

This site uses Akismet to reduce spam. Learn how your comment data is processed.