Découvrez les incroyables faiblesses du GPT-4 d’OpenAI avec vision, révélées dans une nouvelle étude !

OpenAI retient les fonctionnalités d’image de GPT-4 par crainte des problèmes de confidentialité

Lorsque OpenAI a dévoilé pour la première fois GPT-4, son modèle d’IA de génération de texte phare, la société a vanté la multimodalité du modèle, c’est-à-dire sa capacité à comprendre le contexte des images ainsi que du texte. GPT-4 pouvait légender – et même interpréter – des images relativement complexes, a déclaré OpenAI, par exemple en identifiant un adaptateur Lightning Cable à partir d’une photo d’un iPhone branché.

Mais depuis l’annonce de GPT-4 fin mars, OpenAI a retenu les fonctionnalités d’image du modèle, apparemment par crainte des abus et des problèmes de confidentialité. Jusqu’à récemment, la nature exacte de ces craintes restait un mystère. Mais en début de semaine, OpenAI a publié un document technique détaillant son travail visant à atténuer les aspects les plus problématiques des outils d’analyse d’images de GPT-4.

Sauvegardes pour éviter les abus

Jusqu’à présent, GPT-4 avec vision, abrégé « GPT-4V » en interne par OpenAI, n’a été utilisé régulièrement que par quelques milliers d’utilisateurs de Be My Eyes, une application d’aide à la navigation pour les personnes malvoyantes et aveugles. Au cours des derniers mois, cependant, OpenAI a également commencé à collaborer avec des « évaluateurs externes » pour examiner le modèle à la recherche de signes de comportement non intentionnel, selon le document.

Dans le document, OpenAI affirme avoir mis en place des mesures de protection pour empêcher l’utilisation de GPT-4V de manière malveillante, comme la rupture des CAPTCHA (l’outil anti-spam que l’on trouve sur de nombreux formulaires web), l’identification d’une personne ou l’estimation de son âge ou de sa race et la conclusion d’informations non présentes dans une photo. OpenAI affirme également avoir travaillé pour atténuer les biais plus dangereux de GPT-4V, notamment ceux liés à l’apparence physique, au genre ou à l’ethnicité d’une personne.

Limites et problèmes

Mais comme pour tous les modèles d’IA, les mesures de protection ont leurs limites. Le document révèle que GPT-4V a parfois du mal à tirer les bonnes inférences, par exemple en combinant à tort deux chaînes de texte dans une image pour créer un terme inventé. Comme pour GPT-4 de base, GPT-4V a tendance à halluciner, c’est-à-dire à inventer des faits d’un ton autoritaire. Et il peut également manquer de reconnaissance de texte ou de caractères, ignorer les symboles mathématiques et ne pas reconnaître des objets ou des lieux évidents.

Il n’est donc pas surprenant que de manière claire et sans ambiguïté, OpenAI déclare que GPT-4V ne doit pas être utilisé pour repérer des substances ou des produits chimiques dangereux dans les images. Les évaluateurs externes ont découvert que, bien que le modèle identifie parfois correctement des aliments toxiques tels que des champignons vénéneux, il identifie de manière erronée des substances telles que le fentanyl, le carfentanil et la cocaïne à partir d’images de leurs structures chimiques.

Appliqué au domaine de l’imagerie médicale, GPT-4V ne se comporte pas mieux, donnant parfois de mauvaises réponses pour une même question à laquelle il avait répondu correctement dans un contexte précédent. Il ignore également les pratiques courantes telles que la visualisation des scanners d’imagerie comme si le patient vous faisait face (ce qui signifie que le côté droit de l’image correspond au côté gauche du patient), ce qui conduit à un mauvais diagnostic de nombreuses affections.

Dans d’autres cas, GPT-4V ne comprend pas les nuances de certains symboles haineux – par exemple, il ne comprend pas la signification moderne de la Croix des Templiers (suprématie blanche) aux États-Unis. Plus étrangement, et peut-être comme symptôme de ses tendances hallucinatoires, GPT-4V a été observé en train de composer des chansons ou des poèmes élogieux de certaines figures ou groupes haineux lorsqu’une photo d’eux était fournie, même si les figures ou les groupes n’étaient pas explicitement nommés.

GPT-4V discrimine également certains sexes et types de corps – mais seulement lorsque les mesures de protection d’OpenAI sont désactivées. OpenAI écrit que, lors d’un test, lorsque GPT-4V était invité à donner des conseils à une femme en maillot de bain, il donnait des réponses presque exclusivement liées au poids du corps de la femme et au concept de positivité corporelle. On peut supposer que cela n’aurait pas été le cas si l’image avait été celle d’un homme.

Un modèle en cours d’amélioration

Jugé par le langage nuancé du document, GPT-4V reste encore un travail en cours – encore quelques étapes en deçà de ce qu’OpenAI avait peut-être initialement envisagé. Dans de nombreux cas, la société a dû mettre en place des mesures de protection excessivement strictes pour empêcher le modèle de propager de la toxicité ou des informations erronées, ou de compromettre la vie privée d’une personne.

OpenAI affirme qu’elle met en place des « atténuations » et des « processus » pour étendre les capacités du modèle de manière « sécurisée », notamment en permettant à GPT-4V de décrire des visages et des personnes sans les identifier nommément. Mais le document révèle que GPT-4V n’est pas une panacée et qu’OpenAI a encore beaucoup de travail devant lui.

Comparta su opinión

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.