Explosion de l’IA cette semaine : Les consommateurs sont-ils vraiment fans du GenAI d’Amazon ? Découvrez la vérité !

Rufus, un assistant d’achat alimenté par l’IA, est annoncé par Amazon

Cette semaine, Amazon a annoncé Rufus, un assistant d’achat alimenté par l’IA formé sur le catalogue de produits du géant de la vente en ligne ainsi que sur des informations provenant du web. Rufus est intégré dans l’application mobile d’Amazon et aide à trouver des produits, à comparer des produits et à obtenir des recommandations sur ce qu’il faut acheter.

Amazon a déclaré dans un article de blog : « Du vaste travail de recherche au début d’un parcours d’achat, comme ‘que faut-il prendre en compte lors de l’achat de chaussures de course ?’, aux comparaisons telles que ‘quelles sont les différences entre les chaussures de course sur route et les chaussures de trail ?’… Rufus améliore de manière significative la facilité avec laquelle les clients peuvent trouver et découvrir les meilleurs produits pour répondre à leurs besoins. »

Cependant, je me demande qui réclame vraiment cela. Je ne suis pas convaincu que l’IA générative, en particulier sous forme de chatbot, soit une technologie à laquelle la personne moyenne s’intéresse – ou même y pense. Les enquêtes me soutiennent dans cette affirmation. En août dernier, le Pew Research Center a constaté que parmi ceux aux États-Unis qui ont entendu parler du chatbot GenAI de OpenAI, ChatGPT (18% des adultes), seulement 26% l’ont essayé. L’utilisation varie bien sûr en fonction de l’âge, avec un pourcentage plus élevé de jeunes (moins de 50 ans) déclarant l’avoir utilisé que de personnes âgées. Mais le fait demeure que la grande majorité ne connaît pas – ou ne se soucie pas d’utiliser ce qui est sans doute le produit GenAI le plus populaire.

GenAI a ses problèmes bien connus, notamment une tendance à inventer des faits, à violer les droits d’auteur et à exprimer des biais et de la toxicité. La précédente tentative d’Amazon de créer un chatbot GenAI, Amazon Q, a eu du mal – révélant des informations confidentielles dès le premier jour de sa sortie. Mais je dirais que le plus gros problème de GenAI maintenant – du moins du point de vue des consommateurs – est qu’il y a peu de raisons universellement convaincantes de l’utiliser.

Bien sûr, GenAI comme Rufus peut aider avec des tâches spécifiques et étroites telles que l’achat en fonction de l’occasion (par exemple, trouver des vêtements d’hiver), la comparaison des catégories de produits (par exemple, la différence entre le brillant à lèvres et l’huile) et la recommandation des meilleurs produits (par exemple, les cadeaux pour la Saint-Valentin). Est-ce que cela répond aux besoins de la plupart des acheteurs ? Pas selon un récent sondage de la start-up de logiciels de commerce électronique Namogoo.

Namogoo, qui a interrogé des centaines de consommateurs sur leurs besoins et leurs frustrations en matière d’achat en ligne, a constaté que les images de produits étaient de loin le contributeur le plus important à une bonne expérience de commerce électronique, suivi des avis et des descriptions de produits. Les répondants ont classé la recherche en quatrième position et la « navigation simple » en cinquième position ; se souvenir des préférences, des informations et de l’historique d’achat était à l’avant-dernière place.

L’implication est que les gens font généralement des achats avec un produit en tête ; que la recherche est une réflexion secondaire. Peut-être que Rufus bouleversera l’équation. Je suis enclin à penser que non, en particulier si le lancement est difficile (et cela pourrait bien être le cas étant donné la réception des autres expériences d’achat GenAI d’Amazon) – mais il est vrai que des choses plus étranges se sont produites, je suppose.

D’autres histoires d’IA à noter

Voici d’autres histoires d’IA importantes des derniers jours :

  • Google Maps expérimente avec GenAI : Google Maps introduit une fonctionnalité GenAI pour vous aider à découvrir de nouveaux endroits. En utilisant des modèles linguistiques volumineux (LLM), la fonctionnalité analyse les plus de 250 millions de lieux sur Google Maps et les contributions de plus de 300 millions de guides locaux pour proposer des suggestions en fonction de ce que vous recherchez.
  • Outils GenAI pour la musique et plus encore : Dans d’autres actualités de Google, le géant de la technologie a publié des outils GenAI pour créer de la musique, des paroles et des images, et a rendu Gemini Pro, l’un de ses LLM les plus performants, disponible pour les utilisateurs de son chatbot Bard dans le monde entier.
  • Nouveaux modèles d’IA « ouverts » : L’Institut Allen pour l’IA, l’institut de recherche en IA à but non lucratif fondé par le défunt co-fondateur de Microsoft, Paul Allen, a publié plusieurs modèles de langage GenAI qu’il prétend être plus « ouverts » que d’autres – et, surtout, autorisés de telle manière que les développeurs peuvent les utiliser librement pour la formation, l’expérimentation et même la commercialisation.
  • La FCC propose d’interdire les appels générés par l’IA : La FCC propose de considérer comme fondamentalement illégale l’utilisation de la technologie de clonage vocal dans les appels automatisés, afin de faciliter la poursuite des opérateurs de ces fraudes.
  • Shopify lance un éditeur d’images : Shopify lance un éditeur de médias GenAI pour améliorer les images de produits. Les commerçants peuvent choisir parmi sept styles ou saisir une instruction pour générer un nouvel arrière-plan.
  • Les GPTs, invoqués : OpenAI encourage l’adoption des GPTs, des applications tierces alimentées par ses modèles d’IA, en permettant aux utilisateurs de ChatGPT de les invoquer dans n’importe quel chat. Les utilisateurs payants de ChatGPT peuvent intégrer les GPTs dans une conversation en tapant « @ » et en sélectionnant un GPT dans la liste.
  • OpenAI s’associe à Common Sense : Dans une annonce sans lien, OpenAI a déclaré qu’il s’associait à Common Sense Media, l’organisation à but non lucratif qui évalue et classe l’adéquation de divers médias et technologies pour les enfants, pour collaborer sur des lignes directrices et du matériel éducatif sur l’IA destinés aux parents, aux éducateurs et aux jeunes adultes.
  • Navigation autonome : The Browser Company, qui développe le navigateur Arc, s’est lancé dans la construction d’une IA qui navigue sur le web à votre place et vous fournit des résultats en contournant les moteurs de recherche.

D’autres découvertes en apprentissage automatique

Est-ce qu’une IA sait ce qui est « normal » ou « typique » dans une situation, un médium ou une déclaration donnée ? Dans une certaine mesure, les grands modèles de langage sont particulièrement adaptés pour identifier les modèles qui ressemblent le plus à d’autres dans leurs ensembles de données. Et en effet, c’est ce qu’ont découvert des chercheurs de Yale dans leur recherche sur la capacité d’une IA à identifier la « typicité » d’une chose dans un groupe d’autres choses. Par exemple, parmi 100 romans d’amour, lequel est le plus et lequel est le moins « typique » compte tenu de ce que le modèle a stocké sur ce genre ?

Fait intéressant (et frustrant), les professeurs Balázs Kovács et Gaël Le Mens ont travaillé pendant des années sur leur propre modèle, une variante de BERT, et juste au moment où ils s’apprêtaient à le publier, ChatGPT est sorti et a en quelque sorte duplicé exactement ce qu’ils faisaient. « On pourrait pleurer », a déclaré Le Mens dans un communiqué de presse. Mais la bonne nouvelle est que la nouvelle IA et leur ancien modèle ajusté suggèrent tous deux que ce type de système peut effectivement identifier ce qui est typique et atypique au sein d’un ensemble de données, une découverte qui pourrait être utile à l’avenir. Les deux chercheurs soulignent cependant que bien que ChatGPT soutienne leur thèse en pratique, sa nature fermée rend difficile son utilisation sur le plan scientifique.

Des scientifiques de l’Université de Pennsylvanie se sont intéressés à un autre concept étrange à quantifier : le bon sens. En demandant à des milliers de personnes de noter des déclarations, des choses comme « on récolte ce que l’on sème » ou « ne mangez pas de nourriture après sa date d’expiration », selon leur « caractère commun ». Sans surprise, bien que des tendances se soient dégagées, il y avait « peu de croyances reconnues au niveau du groupe ».

« Nos résultats suggèrent que l’idée de bon sens de chaque personne peut être unique, ce qui rend le concept moins commun que l’on pourrait s’y attendre », déclare Mark Whiting, co-auteur principal. Pourquoi est-ce dans une newsletter sur l’IA ? Parce que, comme pratiquement tout le reste, il s’avère que quelque chose d’aussi « simple » que le bon sens, que l’on pourrait s’attendre à ce que l’IA finisse par avoir, n’est pas du tout simple ! Mais en le quantifiant de cette manière, les chercheurs et les auditeurs pourraient être en mesure de déterminer dans quelle mesure une IA a du bon sens, ou avec quels groupes et biais elle est en accord.

En parlant de biais, de nombreux grands modèles de langage sont assez laxistes avec les informations qu’ils ingèrent, ce qui signifie que si vous leur donnez la bonne consigne, ils peuvent répondre de manière offensante, incorrecte, ou les deux. Latimer est une start-up qui vise à changer cela avec un modèle qui est censé être plus inclusif par conception.

Bien qu’il n’y ait pas beaucoup de détails sur leur approche, Latimer affirme que leur modèle utilise une génération améliorée par récupération (censée améliorer les réponses) et de nombreux contenus sous licence uniques et des données provenant de nombreuses cultures qui ne sont normalement pas représentées dans ces bases de données. Ainsi, lorsque vous posez une question, le modèle ne se réfère pas à un monographie du XIXe siècle pour vous répondre. Nous en saurons plus sur le modèle lorsque Latimer publiera plus d’informations.

Une chose qu’un modèle d’IA peut certainement faire, cependant, c’est faire pousser des arbres. Des arbres factices. Des chercheurs de l’Institut de foresterie numérique de Purdue (où j’aimerais travailler, appelez-moi) ont créé un modèle super compact qui simule la croissance d’un arbre de manière réaliste. Il s’agit d’un de ces problèmes qui semble simple mais ne l’est pas ; on peut simuler la croissance des arbres si l’on crée un jeu ou un film, bien sûr, mais qu’en est-il des travaux scientifiques sérieux ? « Bien que l’IA soit devenue apparemment omniprésente, jusqu’à présent, elle s’est principalement révélée très efficace dans la modélisation de géométries 3D sans rapport avec la nature », a déclaré l’auteur principal Bedrich Benes.

Leur nouveau modèle ne fait qu’un mégaoctet, ce qui est extrêmement petit pour un système d’IA. Mais bien sûr, l’ADN est encore plus petit et plus dense, et il code tout l’arbre, de la racine au bourgeon. Le modèle fonctionne encore par abstractions – ce n’est en aucun cas une simulation parfaite de la nature – mais il montre que les complexités de la croissance des arbres peuvent être codées dans un modèle relativement simple.

Enfin, des chercheurs de l’Université de Cambridge ont mis au point un robot capable de lire le braille plus rapidement qu’un humain, avec une précision de 90%. Pourquoi, vous demandez-vous ? En fait, ce n’est pas pour que les personnes aveugles l’utilisent – l’équipe a décidé que c’était une tâche intéressante et facilement quantifiable pour tester la sensibilité et la rapidité des doigts robotiques. Si le robot peut lire le braille simplement en le survolant, c’est un bon signe ! Vous pouvez en savoir plus sur cette approche intéressante here. Ou regardez la vidéo ci-dessous :

Share your opinion

This site uses Akismet to reduce spam. Learn how your comment data is processed.