Découvrez la toute nouvelle équipe d’OpenAI dédiée à la sécurité des enfants – Une initiative révolutionnaire !

OpenAI forme une équipe dédiée à la sécurité des enfants

Sous le regard critique des militants – et des parents – OpenAI a formé une nouvelle équipe chargée d’étudier les moyens d’empêcher que ses outils d’IA ne soient utilisés de manière abusive ou inappropriée par les enfants.

Dans une nouvelle offre d’emploi sur sa page de carrière, OpenAI révèle l’existence d’une équipe de sécurité des enfants, qui travaille avec les groupes de politique de plateforme, de juridique et d’enquête au sein de OpenAI ainsi qu’avec des partenaires externes pour gérer les « processus, incidents et examens » liés aux utilisateurs mineurs.

L’équipe est actuellement à la recherche d’un spécialiste de l’application des règles de sécurité des enfants, qui sera chargé d’appliquer les politiques de OpenAI dans le contexte du contenu généré par l’IA et de travailler sur les processus d’examen liés au contenu « sensible » (probablement lié aux enfants).

Les vendeurs de technologies d’une certaine taille consacrent une quantité importante de ressources à la conformité avec des lois telles que la règle de protection de la vie privée en ligne des enfants aux États-Unis, qui imposent des contrôles sur ce que les enfants peuvent – et ne peuvent pas – accéder sur le web ainsi que sur les types de données que les entreprises peuvent collecter sur eux. Ainsi, le fait que OpenAI embauche des experts en sécurité des enfants n’est pas une surprise totale, d’autant plus que l’entreprise s’attend à avoir une importante base d’utilisateurs mineurs un jour. (Les conditions d’utilisation actuelles de OpenAI exigent le consentement parental pour les enfants âgés de 13 à 18 ans et interdisent l’utilisation aux enfants de moins de 13 ans.)

Cependant, la création de cette nouvelle équipe, qui intervient plusieurs semaines après que OpenAI a annoncé un partenariat avec Common Sense Media pour collaborer sur des lignes directrices d’IA adaptées aux enfants et a obtenu son premier client dans le secteur de l’éducation, suggère également une méfiance de la part de OpenAI à l’égard des politiques concernant l’utilisation de l’IA par les mineurs – et la mauvaise presse.

Les risques croissants de l’utilisation de l’IA par les enfants

Les enfants et les adolescents ont de plus en plus recours à des outils d’IA pour obtenir de l’aide non seulement dans leurs devoirs scolaires, mais aussi pour des problèmes personnels. Selon un sondage du Center for Democracy and Technology, 29% des enfants déclarent avoir utilisé ChatGPT pour faire face à l’anxiété ou aux problèmes de santé mentale, 22% pour des problèmes avec des amis et 16% pour des conflits familiaux.

Certains considèrent cela comme un risque croissant.

L’été dernier, les écoles et les universités se sont précipitées pour interdire ChatGPT en raison de craintes de plagiat et de désinformation. Depuis lors, certaines ont annulé leur interdiction. Mais tout le monde n’est pas convaincu du potentiel de l’IA générale pour le bien, en citant des enquêtes comme celle du Safer Internet Centre du Royaume-Uni, qui a révélé que plus de la moitié des enfants (53%) déclarent avoir vu des personnes de leur âge utiliser l’IA générale de manière négative – par exemple, en créant de fausses informations ou des images crédibles utilisées pour perturber quelqu’un.

En septembre, OpenAI a publié de la documentation pour ChatGPT dans les salles de classe, avec des suggestions d’utilisation et une FAQ pour offrir aux éducateurs des conseils sur l’utilisation de l’IA générale comme outil d’enseignement. Dans l’un des articles de support, OpenAI a reconnu que ses outils, en particulier ChatGPT, « peuvent produire des résultats qui ne conviennent pas à tous les publics ou à tous les âges » et a conseillé d’être « prudent » en exposant les enfants – même ceux qui répondent aux exigences d’âge.

L’appel à des directives sur l’utilisation de l’IA par les enfants

L’UNESCO a poussé, fin de l’année dernière, les gouvernements à réglementer l’utilisation de l’IA générale dans l’éducation, notamment en instaurant des limites d’âge pour les utilisateurs et des garde-fous en matière de protection des données et de la vie privée des utilisateurs. « L’IA générative peut constituer une formidable opportunité pour le développement humain, mais elle peut aussi causer des préjudices et des discriminations », a déclaré Audrey Azoulay, directrice générale de l’UNESCO, dans un communiqué de presse. « Elle ne peut être intégrée à l’éducation sans engagement public et sans les garanties et réglementations nécessaires de la part des gouvernements. »

Partagez votre opinion

Ce site utilise Akismet pour réduire les spams. Découvrez comment les données de vos commentaires sont traitées.