DeepMind révolutionne la sécurité de l’IA avec sa toute nouvelle organisation Google!

Google met l’accent sur la sécurité de l’IA après les préoccupations concernant la désinformation

Google a récemment été critiqué pour la capacité de son modèle GenAI à générer du contenu trompeur et de la désinformation. Pour répondre à ces préoccupations, Google a annoncé la création d’une nouvelle organisation, AI Safety and Alignment, qui se concentrera sur la sécurité de l’IA. Cette organisation comprendra une équipe spécialisée dans la sécurité de l’intelligence artificielle générale (AGI) et travaillera en collaboration avec l’équipe de recherche de Google DeepMind à Londres.

La formation de l’organisation AI Safety and Alignment

L’équipe d’AI Safety and Alignment sera composée de chercheurs et d’ingénieurs spécialisés dans la sécurité de l’IA. Bien que Google n’ait pas précisé combien de personnes seraient embauchées, il est clair que l’organisation se concentrera sur le développement de mesures de sécurité concrètes pour les modèles GenAI de Google. Cela inclut la prévention des conseils médicaux erronés, la garantie de la sécurité des enfants et la lutte contre l’amplification des biais et des injustices.

Une équipe dédiée à la sécurité de l’AGI

L’une des équipes de l’AI Safety and Alignment sera spécifiquement chargée de la sécurité de l’intelligence artificielle générale (AGI). Cette équipe se concentrera sur la recherche de solutions pour contrôler les systèmes AGI qui pourraient réaliser n’importe quelle tâche qu’un humain peut effectuer. Cette équipe travaillera en collaboration avec l’équipe de recherche Scalable Alignment de Google DeepMind à Londres.

Les préoccupations concernant la désinformation et les deepfakes

Les outils GenAI suscitent actuellement beaucoup de méfiance, en particulier en ce qui concerne les deepfakes et la désinformation. Une récente enquête a révélé que 85% des Américains étaient très préoccupés ou assez préoccupés par la propagation de deepfakes vidéo et audio trompeurs. De plus, près de 60% des adultes estiment que les outils d’IA augmenteront le volume d’informations fausses et trompeuses lors des prochaines élections aux États-Unis.

Les préoccupations des entreprises

Les entreprises qui envisagent d’utiliser les outils GenAI sont également préoccupées par les limites de cette technologie. Une enquête a révélé que certains répondants avaient des réserves concernant la conformité et la confidentialité de l’IA, le coût élevé de mise en œuvre et le manque de compétences techniques nécessaires pour utiliser pleinement ces outils. Les entreprises craignent également que leurs employés prennent des décisions basées sur des informations inexactes provenant des applications d’IA.

Les défis de la sécurité de l’IA

La directrice de l’organisation AI Safety and Alignment, Anca Dragan, reconnaît que le défi de la sécurité de l’IA est complexe et qu’il n’y aura jamais de modèle parfait. Cependant, elle affirme que Google investira davantage de ressources dans ce domaine et s’engagera à évaluer les risques de sécurité des modèles GenAI. Dragan souligne l’importance d’intégrer les préférences et les valeurs humaines dans les modèles d’IA, d’ajouter des mesures de surveillance et de dialoguer avec les utilisateurs pour prendre des décisions éclairées.

Conclusion

Google fait face à des critiques concernant la désinformation générée par son modèle GenAI. Pour répondre à ces préoccupations, Google a créé l’organisation AI Safety and Alignment, qui se concentrera sur la sécurité de l’IA. Cependant, il reste à voir si ces mesures seront suffisantes pour rétablir la confiance des utilisateurs, du public et des régulateurs. La directrice de l’organisation, Anca Dragan, reconnaît les défis auxquels elle est confrontée et affirme que l’objectif est de créer des modèles d’IA de plus en plus utiles et sûrs au fil du temps.

Share your opinion

This site uses Akismet to reduce spam. Learn how your comment data is processed.