L’adoption de l’IA générative dans les entreprises soulève des préoccupations en matière de cybersécurité
Les recherches montrent que d’ici 2026, plus de 80% des entreprises utiliseront des modèles, des APIs ou des applications d’IA générative, contre moins de 5% aujourd’hui.
Cette adoption rapide soulève de nouvelles considérations en matière de cybersécurité, d’éthique, de confidentialité et de gestion des risques. Parmi les entreprises utilisant déjà l’IA générative, seules 38% prennent des mesures pour atténuer les risques de cybersécurité, et seulement 32% travaillent à résoudre les problèmes d’inexactitude des modèles.
Mes discussions avec des experts en sécurité et des entrepreneurs ont mis en évidence trois facteurs clés :
- L’adoption de l’IA générative par les entreprises entraîne des complexités supplémentaires en matière de sécurité, telles que l’accès excessif aux données. Par exemple, bien que les outils conventionnels de prévention de la perte de données surveillent et contrôlent efficacement les flux de données vers les applications d’IA, ils sont souvent insuffisants pour les données non structurées et les facteurs plus nuancés tels que les règles éthiques ou le contenu biaisé des demandes.
- La demande du marché pour différents produits de sécurité GenAI est étroitement liée au compromis entre le potentiel de retour sur investissement et les vulnérabilités de sécurité inhérentes aux cas d’utilisation sous-jacents pour lesquels les applications sont utilisées. Cet équilibre entre opportunité et risque continue d’évoluer en fonction du développement continu des normes d’infrastructure de l’IA et du cadre réglementaire.
- Tout comme les logiciels traditionnels, l’IA générative doit être sécurisée à tous les niveaux de l’architecture, en particulier l’interface principale, l’application et les données. Voici un aperçu des différentes catégories de produits de sécurité dans l’infrastructure technologique, mettant en évidence les domaines où les responsables de la sécurité perçoivent un retour sur investissement significatif et un potentiel de risque.
Bildnachweise : Forgepoint Capital
L’adoption généralisée des chatbots GenAI donnera la priorité à la capacité d’intercepter, de passer en revue et de valider avec précision et rapidité les entrées et les sorties à grande échelle, sans diminuer l’expérience utilisateur.
Interface principale : Équilibrer l’usabilité et la sécurité
Les entreprises voient un immense potentiel dans l’utilisation de chatbots orientés vers les clients, notamment des modèles personnalisés formés sur des données spécifiques à l’industrie et à l’entreprise. L’interface utilisateur est susceptible de subir des injections de requêtes, une variante des attaques par injection visant à manipuler la réponse ou le comportement du modèle.
De plus, les responsables de la sécurité des systèmes d’information (RSSI) et les responsables de la sécurité sont de plus en plus sous pression pour permettre l’utilisation de applications GenAI au sein de leurs organisations. Alors que la consumerisation de l’entreprise est une tendance continue, l’adoption rapide et généralisée de technologies telles que ChatGPT a suscité un engouement sans précédent, mené par les employés, pour leur utilisation sur le lieu de travail.
L’adoption généralisée des chatbots GenAI donnera la priorité à la capacité d’intercepter, de passer en revue et de valider avec précision et rapidité les entrées et les sorties à grande échelle, sans diminuer l’expérience utilisateur. Les outils de sécurité des données existants reposent souvent sur des règles prédéfinies, ce qui entraîne des faux positifs. Des outils tels que Rebuff de Protect AI et Harmonic Security utilisent des modèles d’IA pour déterminer dynamiquement si les données qui passent par une application GenAI sont sensibles ou non.