Révélation choc : le plan d’action incontournable pour l’IA en 2024 : exploiter son potentiel et prévenir les dangers au travail !

L’année 2023 : l’année de l’IA et les risques émergents pour les entreprises

De nombreux experts ont qualifié l’année 2023 comme l’année de l’IA, et le terme a figuré sur plusieurs listes de « mot de l’année ». Bien qu’elle ait eu un impact positif sur la productivité et l’efficacité sur le lieu de travail, l’IA a également présenté un certain nombre de risques émergents pour les entreprises.

Par exemple, un récent sondage Harris Poll commandé par AuditBoard a révélé que près de la moitié des Américains employés (51%) utilisent actuellement des outils alimentés par l’IA pour leur travail, probablement grâce à ChatGPT et à d’autres solutions d’IA générative. Cependant, près de la moitié (48%) ont déclaré saisir des données de l’entreprise dans des outils d’IA qui ne sont pas fournis par leur entreprise pour les aider dans leur travail.

Cette intégration rapide des outils d’IA générative au travail présente des défis éthiques, juridiques, de confidentialité et pratiques, ce qui crée un besoin pour les entreprises de mettre en place des politiques nouvelles et solides concernant ces outils. Pour l’instant, la plupart ne l’ont pas encore fait – un récent sondage de Gartner a révélé que plus de la moitié des organisations ne disposent pas d’une politique interne sur l’IA générative, et le sondage Harris Poll a révélé que seuls 37% des Américains employés ont une politique formelle concernant l’utilisation d’outils alimentés par l’IA non fournis par l’entreprise.

Alors que cela peut sembler une tâche ardue, élaborer dès maintenant un ensemble de politiques et de normes peut épargner aux organisations de nombreux problèmes à l’avenir.

Utilisation de l’IA et gouvernance : Risques et défis

Élaborer dès maintenant un ensemble de politiques et de normes peut épargner aux organisations de nombreux problèmes à l’avenir.

L’adoption rapide de l’IA générative rend difficile pour les entreprises de suivre le rythme de la gestion des risques liés à l’IA et de la gouvernance, et il existe un décalage distinct entre l’adoption et les politiques formelles. Le sondage Harris Poll mentionné précédemment a révélé que 64% des personnes considèrent l’utilisation des outils d’IA comme sûre, ce qui indique que de nombreux travailleurs et organisations pourraient ignorer les risques.

Ces risques et défis peuvent varier, mais trois des plus courants sont :

  1. Surestimation. L’effet Dunning-Kruger est un biais qui se produit lorsque nos propres connaissances ou compétences sont surestimées. Nous avons vu cela se manifester par rapport à l’utilisation de l’IA ; beaucoup surestiment les capacités de l’IA sans comprendre ses limites. Cela peut entraîner des résultats relativement inoffensifs, tels que des sorties incomplètes ou inexactes, mais cela peut également conduire à des situations beaucoup plus graves, telles que des sorties qui enfreignent les restrictions légales d’utilisation ou qui créent des risques en matière de propriété intellectuelle.
  2. Sécurité et confidentialité. L’IA a besoin d’accéder à de grandes quantités de données pour être pleinement efficace, mais cela inclut parfois des données personnelles ou d’autres informations sensibles. Il existe des risques inhérents liés à l’utilisation d’outils d’IA non vérifiés, il est donc essentiel que les organisations veillent à utiliser des outils qui répondent à leurs normes de sécurité des données.

Teilen Sie Ihre Meinung mit

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..