Les préoccupations en matière de sécurité sont étroitement liées à l’exploration et à la mise en œuvre de l’IA générative
Les préoccupations en matière de sécurité sont inexorablement liées à l’exploration et à la mise en œuvre de l’IA générative. Selon un récent rapport basé sur des données que nous avons commandé, 49 % des chefs d’entreprise considèrent les risques de sécurité comme une préoccupation majeure, tandis que 38 % ont identifié les erreurs humaines ou les violations de données causées par un manque de compréhension de l’utilisation des outils de GPT.
Bien que ces préoccupations soient valides, les avantages dont bénéficieront les premiers utilisateurs l’emportent largement sur les inconvénients potentiels de la limitation de l’intégration.
Je souhaite partager ce que j’ai appris en aidant nos collègues et nos clients à comprendre pourquoi la sécurité ne doit pas être une réflexion après-coup, mais une condition préalable à l’intégration de l’IA dans l’entreprise, ainsi que quelques bonnes pratiques à cet égard.
La conversation sur l’IA commence par une politique d’utilisation sécurisée
Les entreprises comprennent l’urgence avec laquelle elles doivent répondre aux nouveaux risques de sécurité que présente l’IA. En fait, selon le rapport mentionné ci-dessus, 81 % des chefs d’entreprise ont déclaré que leur entreprise avait déjà mis en œuvre ou était en train de mettre en place des politiques d’utilisation de l’IA générative.
Les garde-fous pour les tests et l’apprentissage sont essentiels pour accélérer l’exploration tout en minimisant les risques de sécurité.
Cependant, en raison de la nature en constante évolution de la technologie – avec de nouvelles applications et de nouveaux cas d’utilisation qui émergent chaque jour – la politique doit être continuellement mise à jour pour répondre aux risques et aux défis émergents.
Les garde-fous pour les tests et l’apprentissage sont essentiels pour accélérer l’exploration tout en minimisant les risques de sécurité. De plus, la politique ne doit pas être créée en vase clos. La participation de l’ensemble de l’entreprise est importante pour comprendre comment la technologie est utilisée ou pourrait être utilisée par chaque fonction afin de prendre en compte les risques de sécurité spécifiques.
Il est important de noter que l’exploration en mode skunkworks de l’IA ne doit pas être complètement interdite. Les entreprises qui y résistent par peur n’auront plus à se soucier de la concurrence qui érode leur part de marché ; elles l’ont déjà fait elles-mêmes.
Permettre aux développeurs citoyens
Afin de nous assurer que nous utilisons l’IA de manière sécurisée, nous avons d’abord donné à nos développeurs citoyens un accès total pour utiliser une instance privée de notre grand modèle d’apprentissage des langues, Insight GPT. Cela nous a non seulement aidés à identifier des cas d’utilisation potentiels, mais nous a également permis de tester ses résultats, ce qui nous a permis d’apporter des améliorations continues.