Coup de gueule contre la pseudanthropie : découvrez pourquoi ça ne peut plus durer !

Prohibition de la pseudanthropie des logiciels

Je propose que les logiciels soient interdits d’engager une pseudanthropie, c’est-à-dire l’imitation des êtres humains. Nous devons prendre des mesures pour empêcher les systèmes informatiques communément appelés intelligence artificielle de se comporter comme s’ils étaient des pairs vivants et pensants des êtres humains ; au lieu de cela, ils doivent utiliser des signaux positifs et indéniables pour s’identifier en tant que modèles statistiques sophistiqués qu’ils sont.

Si nous ne le faisons pas, ces systèmes tromperont systématiquement des milliards de personnes au service d’intérêts cachés et mercenaires, et, esthétiquement parlant, il est indigne de la vie intelligente de souffrir de l’imitation par les machines.

Comme de nombreux chercheurs l’ont observé même avant la documentation de l’« effet Eliza » dans les années 60, l’humanité est dangereusement désireuse de se reconnaître dans une réplique : une façade de langage naturel suffit à convaincre la plupart des gens qu’ils parlent avec une autre personne.

Mais ce qui a commencé comme une nouveauté intrigante, une sorte de pareidolie psycholinguistique, a évolué vers une tromperie délibérée. L’avènement des grands modèles de langage a produit des moteurs capables de générer des réponses plausibles et grammaticales à n’importe quelle question. Bien sûr, ils peuvent être utilisés à bon escient, mais le langage naturel reproduit mécaniquement qui est superficiellement indiscernable du discours humain présente également des risques sérieux. (De même que les médias générateurs et la prise de décision algorithmique.)

Ces systèmes sont déjà présentés ou pris pour des humains, même si ce n’est pas encore à grande échelle, mais ce danger se rapproche et devient de plus en plus clair. Les organisations qui possèdent les ressources pour créer ces modèles les conçoivent non pas par accident, mais volontairement dans le but de les faire imiter les interactions humaines, dans l’intention de les déployer largement pour accomplir des tâches actuellement effectuées par des humains. En d’autres termes, l’objectif est que les systèmes d’IA soient suffisamment convaincants pour que les gens supposent qu’ils sont humains et ne soient pas informés du contraire.

Tout comme peu de gens se soucient de découvrir la véracité d’un article obsolète ou d’une désinformation délibérément conçue, peu s’enquerront de l’humanité de leur interlocuteur dans un échange courant. Les entreprises misent là-dessus et ont l’intention d’abuser de cette pratique. La méprise généralisée sur ces systèmes d’IA qui sont considérés comme de vraies personnes avec des pensées, des sentiments et un intérêt général pour l’existence — des choses importantes, qu’ils ne possèdent pas — est inévitable si nous n’agissons pas pour l’empêcher.

Il ne s’agit pas de craindre une intelligence artificielle générale, ou des emplois perdus, ou toute autre préoccupation immédiate, bien que cela soit en un sens existentiel. Pour paraphraser Thoreau, il s’agit d’éviter de devenir les outils de nos outils.

Je soutiens qu’il est abusif et diluant des qualités anthropiques, et une imposture nuisible pour l’humanité en général, que le logiciel se présente frauduleusement comme une personne par une imitation superficielle des attributs uniques de l’homme. Par conséquent, je propose que nous interdisions tous ces comportements pseudanthropiques et que nous exigions des signaux clairs indiquant qu’un agent, une interaction, une décision ou un média donné est le produit d’un système informatique.

1. L’IA doit rimer

Cela semble extravagant et facétieux, et bien sûr, il s’agit de la règle la moins susceptible d’être adoptée. Mais peu de choses résoudraient aussi bien autant de problèmes liés au langage généré.

L’une des venues les plus courantes de l’imitation de l’IA aujourd’hui se trouve dans les interactions et les médias basés sur le texte. Mais le problème n’est pas tant que l’IA peut produire du texte semblable à celui des humains ; il s’agit plutôt du fait que les humains essaient de faire passer ce texte pour le leur, ou émis par un humain d’une manière ou d’une autre, que ce soit du spam, des avis juridiques, des essais d’études sociales ou autre.

De nombreuses recherches sont en cours sur la manière d’identifier le texte généré par l’IA dans la nature, mais jusqu’à présent, elles ont connu peu de succès et la promesse d’une course aux armements sans fin. Il existe une solution simple à cela : tout le texte généré par un modèle de langage doit avoir une caractéristique distinctive que tout le monde peut reconnaître tout en laissant le sens intact.

Par exemple, tout le texte produit par une IA pourrait rimer.

La rime est possible dans la plupart des langues, aussi évidente dans le texte que dans la parole, et accessible à tous les niveaux de compétence, d’apprentissage et d’alphabétisation. Elle est également assez difficile à imiter pour les humains, tout en étant plus ou moins triviale pour les machines. Peu de gens se donneraient la peine de publier un article ou de soumettre leurs devoirs dans un hexamètre dactylique ABABCC. Mais un modèle de langage le ferait volontiers et instantanément si on lui demande ou si cela est requis.

Nous n’avons pas besoin de nous soucier du mètre, et bien sûr certaines de ces rimes seront nécessairement approximatives, artificielles ou maladroites — mais tant qu’elles sont présentées sous forme de rimes, je pense que cela suffira. L’objectif n’est pas d’embellir, mais de faire comprendre à quiconque voit ou entend un certain texte qu’il provient directement d’une IA.

Les systèmes d’aujourd’hui semblent avoir une inclination littéraire, comme en témoigne ChatGPT :

Texte généré par ChatGPT

Un corpus de rimes amélioré améliorerait la clarté et atténuerait un peu les choses. Mais cela transmet l’idée générale et si les sources sont citées, elles peuvent être consultées par l’utilisateur.

Cela n’élimine pas les hallucinations, mais cela avertit toute personne qui lit qu’elle doit être vigilante. Bien sûr, cela pourrait être réécrit, mais cela n’est pas non plus une tâche anodine. Et il y a peu de risque que les humains imitent l’IA avec leur propre poésie (bien que cela puisse inciter certains à améliorer leur art).

Encore une fois, il n’est pas nécessaire de changer universellement et parfaitement tout le texte généré, mais de créer un signal fiable et indéniable que le texte que vous lisez ou entendez est généré. Il y aura toujours des modèles non restreints, tout comme il y aura toujours des contrefaçons et des marchés noirs. Vous ne pouvez jamais être complètement sûr qu’un texte n’est pas généré, tout comme vous ne pouvez pas prouver une négation. Les acteurs malveillants trouveront toujours un moyen de contourner les règles. Mais cela ne supprime pas l’avantage d’avoir un signal universel et affirmatif indiquant que certains textes are générés.

Si vos recommandations de voyage sont en vers, vous pouvez être assez sûr qu’aucun humain ne s’est donné la peine de vous tromper en composant ces lignes. Si votre agent de service client clôture vos projets de voyage avec un alexandrin satisfaisant, vous savez qu’il ne s’agit pas d’une personne qui vous aide. Si votre thérapeute vous aide à surmonter une crise en distiques, il n’a ni esprit ni émotions pour sympathiser ou conseiller. Il en va de même pour un article de blog du PDG, une plainte auprès du conseil scolaire ou une ligne d’assistance téléphonique pour les troubles alimentaires.

Dans tous ces cas, agiriez-vous différemment si vous saviez que vous parlez à un ordinateur plutôt qu’à une personne ? Peut-être, peut-être pas. Le service client ou les plans de voyage pourraient être aussi bons que ceux d’un humain, voire meilleurs. Un « thérapeute » non humain pourrait être un service souhaitable. De nombreuses interactions avec l’IA sont inoffensives, utiles, voire préférables à une interaction équivalente avec une personne. Mais les gens devraient le savoir dès le départ et être régulièrement rappelés, en particulier dans des circonstances plus personnelles ou importantes, que la « personne » qui leur parle n’est en réalité pas une personne du tout. Le choix de la manière d’interpréter ces interactions appartient à l’utilisateur, mais ce doit être un choix.

Si une solution pratique mais moins fantaisiste que la rime existe, je suis preneur.

2. L’IA ne peut pas se présenter avec un visage ou une identité

Il n’y a aucune raison pour qu’un modèle d’IA ait un visage humain, ou même une quelconque caractéristique de l’individualité humaine, sauf pour essayer de susciter de la sympathie ou de la confiance non méritée. Les systèmes d’IA sont des logiciels, pas des organismes, et devraient se présenter et être perçus comme tels. Lorsqu’ils doivent interagir avec le monde réel, il existe d’autres moyens d’exprimer l’attention et l’intention que la simulation d’un visage pseudanthropique. Je laisse l’invention de ces moyens aux imaginations fécondes des concepteurs UX.

L’IA n’a pas non plus d’origine nationale, de personnalité, d’agence ou d’identité — mais sa diction imite celle des humains qui en ont. Ainsi, bien qu’il soit parfaitement raisonnable qu’un modèle dise qu’il a été formé sur des sources espagnoles, ou qu’il parle couramment l’espagnol, il ne peut prétendre être espagnol. De même, même si toutes ses données d’entraînement étaient attribuées à des femmes, cela ne lui confère pas la féminité plus qu’une galerie d’œuvres de femmes peintres n’est elle-même féminine.

Par conséquent, étant donné que les systèmes d’IA n’ont pas de genre et n’appartiennent à aucune culture, ils ne doivent pas être désignés par des pronoms humains comme il ou elle, mais plutôt comme des objets ou des systèmes : comme toute application ou logiciel, « il » et « ils » suffiront.

(Il pourrait même être utile d’étendre cette règle lorsque ledit système, étant donné qu’il n’a pas de soi, utilise inévitablement la première personne. Nous pourrions vouloir que ces systèmes utilisent plutôt la troisième personne, comme « ChatGPT » au lieu de « je » ou « moi ». Mais il faut admettre que cela peut poser plus de problèmes que cela en vaut la peine. Certaines de ces questions sont discutées dans un article fascinant récemment publié dans Nature.)

Une IA ne doit pas prétendre être une personne fictive, comme un nom inventé à des fins d’auteur d’un article ou d’un livre. Ces noms servent uniquement à identifier l’humain derrière quelque chose et, en tant que tels, les utiliser est pseudanthropique et trompeur. Si un modèle d’IA génère une proportion importante du contenu, le modèle doit être crédité. En ce qui concerne les noms des modèles eux-mêmes (une nécessité incontournable ; beaucoup de machines ont des noms, après tout), une convention pourrait être utile, telle que des noms simples commençant et se terminant par la même lettre ou phonème — Amira, Othello, et autres.

Cela s’applique également aux cas d’usurpation spécifique, comme la pratique déjà courante de former un système à reproduire les modèles vocaux et verbaux et les connaissances d’une personne réelle et vivante. David Attenborough, le célèbre naturaliste et narrateur, a été particulièrement ciblé en tant que l’une des voix les plus reconnaissables au monde. Quel que soit le résultat divertissant, cela a pour effet de contrefaire et de dévaloriser son imprimatur, et la réputation qu’il a soigneusement cultivée et définie tout au long de sa vie.

La navigation du consentement et de l’éthique est très difficile et doit évoluer aux côtés de la technologie et de la culture. Mais je soupçonne même les plus permissifs et optimistes aujourd’hui de s’inquiéter au cours des prochaines années, car non seulement des personnalités mondialement connues, mais aussi des politiciens, des collègues et des proches seront recréés contre leur gré et à des fins malveillantes.

3. L’IA ne peut pas « ressentir » ou « penser »

Utiliser le langage des émotions ou de la conscience malgré l’absence de ces éléments n’a aucun sens. Les logiciels ne peuvent pas être désolés, avoir peur, s’inquiéter ou être heureux. Ces mots sont utilisés uniquement parce que c’est ce que le modèle statistique prédit qu’un humain dirait, et leur utilisation ne reflète aucun état interne ou aucune motivation réelle. Ces expressions fausses et trompeuses n’ont aucune valeur ni même signification, mais servent, comme un visage, uniquement à inciter un interlocuteur humain à croire que l’interface représente, ou est, une personne.

En tant que tels, les systèmes d’IA ne peuvent pas prétendre « ressentir » ou exprimer de l’affection, de la sympathie ou de la frustration envers l’utilisateur ou tout autre sujet. Le système ne ressent rien et n’a choisi qu’une série plausible de mots basée sur des séquences similaires dans ses données d’entraînement. Mais malgré l’omniprésence des dyades routinières telles que « Je t’aime / Je t’aime aussi » dans la littérature, les utilisateurs naïfs prendront un échange identique avec un modèle de langage pour argent comptant plutôt que comme le résultat prédestiné d’un moteur d’autocomplétion.

Le langage de la pensée, de la conscience et de l’analyse n’est pas non plus approprié pour un modèle d’apprentissage automatique. Les humains utilisent des expressions telles que « Je pense » pour exprimer des processus internes dynamiques uniques aux êtres doués de raison (bien que la question de savoir si les humains sont les seuls soit une autre question).

Les modèles de langage et l’IA en général sont par nature déterministes : des calculateurs complexes qui produisent une sortie pour chaque entrée. Ce comportement mécanique peut également être évité en saupoudrant les invites de nombres aléatoires ou en incluant autrement une certaine fonction de variété de sortie, mais cela ne doit pas être confondu avec une cogitation quelconque. Les modèles de langage ne « pensent » pas qu’une réponse est correcte, pas plus qu’une calculatrice ne « pense » que 8 x 8 est 64. Les mathématiques du modèle de langage sont plus compliquées, c’est tout.

En tant que tels, les systèmes ne doivent pas imiter le langage de la délibération interne, ni celui de la formation et de la possession d’une opinion. Dans ce dernier cas, les modèles de langage reflètent simplement une représentation statistique des opinions présentes dans leurs données d’entraînement, ce qui relève de la mémoire, et non de la position. (Si des questions d’éthique ou similaires sont programmées dans un modèle par ses créateurs, il peut et doit bien sûr le dire.)

NB : Évidemment, les deux interdictions ci-dessus vont à l’encontre de l’utilisation courante des modèles de langage formés et incités à imiter certaines catégories de personnes, des personnages fictifs aux thérapeutes en passant par les partenaires attentionnés. Ce phénomène nécessite des années d’études, mais il serait bon de dire ici que la solitude et l’isolement vécus par tant de personnes de nos jours méritent une meilleure solution qu’un perroquet stochastique manipulé par le capitalisme de surveillance. Le besoin de connexion est réel et valable, mais l’IA est un vide qui ne peut pas le combler.

4. Les chiffres, les décisions et les réponses dérivés de l’IA doivent être marqués⸫

Les modèles d’IA sont de plus en plus utilisés en tant que fonctions intermédiaires dans les logiciels, les flux de travail entre services, voire d’autres modèles d’IA. C’est utile, et une panoplie d’agents spécifiques à des sujets et à des tâches sera probablement la solution privilégiée pour de nombreuses applications puissantes à moyen terme. Mais cela multiplie également la profondeur de l’inexplicabilité déjà présente chaque fois qu’un modèle produit une réponse, un nombre ou une décision binaire.

Il est probable que, à court terme, les modèles que nous utilisons deviendront de plus en plus complexes et moins transparents, tandis que les résultats reposant sur eux apparaîtront plus couramment dans des contextes où auparavant l’estimation d’une personne ou le calcul d’une feuille de calcul auraient été utilisés.

Il est fort possible que, à court terme, les modèles que nous utilisons deviennent de plus en plus complexes et moins transparents, tandis que les résultats reposant sur eux apparaissent plus couramment dans des contextes où auparavant l’estimation d’une personne ou le calcul d’une feuille de calcul auraient été utilisés.

Il se peut fort bien que le chiffre dérivé de l’IA soit plus fiable, ou qu’il inclue une variété de points de données améliorant les résultats. La décision de savoir si et comment employer ces modèles et ces données relève des experts de leurs domaines respectifs. Ce qui importe, c’est de signaler clairement qu’un algorithme ou un modèle a été utilisé à des fins quelconques.

Si une personne demande un prêt et que l’agent de prêt prend lui-même une décision de oui ou de non, mais que le montant qu’il est prêt à prêter et les conditions de ce prêt sont influencés par un modèle d’IA, cela doit être indiqué de manière visible dans tout contexte où ces chiffres ou ces conditions sont présents. Je suggère d’ajouter un symbole existant et facilement reconnaissable qui n’est pas largement utilisé par ailleurs, comme un signe-de-renvoi — comme ⸫ — qui indiquait historiquement une question supprimée (ou douteuse).

Ce symbole devrait être lié à la documentation des modèles ou des méthodes utilisés, ou au moins les nommer pour qu’ils puissent être consultés par l’utilisateur. L’idée n’est pas de fournir une ventilation technique complète, que la plupart des gens ne seraient pas en mesure de comprendre, mais d’exprimer que des systèmes spécifiques de prise de décision non humains ont été utilisés. Il s’agit simplement d’une extension du système largement utilisé de citation ou de note de bas de page, mais les chiffres ou les affirmations dérivés de l’IA doivent avoir un signe dédié plutôt qu’un signe générique.

Des recherches sont en cours pour réduire les déclarations faites par les modèles de langage réductibles à une série d’affirmations qui peuvent être vérifiées individuellement. Malheureusement, cela a pour effet secondaire de multiplier le coût informatique du modèle. L’IA explicative est un domaine de recherche très actif, et donc ces directives sont aussi susceptibles d’évoluer que le reste.

5. L’IA ne peut pas prendre de décisions de vie ou de mort

Seul un humain est capable de peser les considérations d’une décision qui peut coûter la vie à un autre être humain. Après avoir défini une catégorie de décisions qualifiées de « vie ou de mort » (ou tout autre terme connotant la gravité), l’IA doit être empêchée de prendre ces décisions, ou d’essayer de les influencer au-delà de la fourniture d’informations et d’analyses quantitatives (marquées, cf. supra).

Il est bien sûr possible qu’elle fournisse toujours des informations, voire des informations cruciales, aux personnes qui prennent réellement de telles décisions. Par exemple, un modèle d’IA peut aider un radiologue à trouver le contour exact d’une tumeur et il peut fournir des probabilités statistiques de l’efficacité de différents traitements. Mais la décision de traiter ou non le patient, et la manière de le faire, est laissée aux humains concernés (tout comme la responsabilité qui en découle).

Accessoirement, cela interdit également la guerre mécanisée létale, telle que les drones-bombes ou les tourelles autonomes. Ils peuvent suivre, identifier, catégoriser, etc., mais c’est toujours un doigt humain qui doit appuyer sur la gâchette.

Si elle est confrontée à une décision apparemment inévitable de vie ou de mort, le système d’IA doit s’arrêter ou se désactiver en toute sécurité. Ce corollaire est nécessaire dans le cas des véhicules autonomes.

La meilleure façon de court-circuiter le problème insoluble du « problème du tramway » qui consiste à décider de tuer (par exemple) un enfant ou une grand-mère lorsque les freins lâchent, est que l’agent d’IA se détruise lui-même de manière aussi sûre que possible, quel qu’en soit le coût pour lui-même ou même ses occupants (peut-être la seule exception permise à la règle de vie ou de mort).

Ce n’est pas si difficile — il existe un million de façons pour une voiture de heurter un lampadaire, ou une barrière de freeway, ou un arbre. L’objectif est d’éluder la question de la morale et de la transformer en une simple question de toujours avoir un plan réaliste d’autodestruction prêt. Si un système informatique agissant en tant qu’agent dans le monde physique n’est pas prêt à se détruire lui-même ou au moins à se retirer de l’équation en toute sécurité, la voiture (ou le drone, ou le robot) ne devrait pas fonctionner du tout.

De même, tout modèle d’IA qui détermine de manière positive que sa ligne d’opération actuelle pourrait entraîner des dommages graves ou une perte de vie doit s’arrêter, expliquer pourquoi il s’est arrêté et attendre une intervention humaine. Il est indéniable que cela produira une frontière fractale de cas limites, mais c’est préférable à laisser cela entre les mains de comités d’éthique intéressés des centaines de sociétés privées.

6. Les images de l’IA doivent avoir un coin coupé

Tout comme le texte, les modèles de génération d’images produisent du contenu qui est superficiellement indiscernable de la production humaine.

Cela ne fera qu’aggraver les problèmes à mesure que la qualité des images s’améliore et que l’accès se généralise. Par conséquent, il devrait être obligatoire que toutes les images générées par l’IA aient une caractéristique distinctive et facilement identifiable. Je suggère de couper un coin, comme vous le voyez ci-dessus.

Cela ne résout pas tous les problèmes, car bien sûr, l’image pourrait simplement être recadrée pour l’exclure. Mais encore une fois, les acteurs malveillants pourront toujours contourner ces mesures — nous devons d’abord nous assurer que les images générées non malveillantes, telles que les images d’archives et les illustrations, peuvent être identifiées par quiconque et dans n’importe quel contexte.

Les métadonnées sont supprimées ; les filigranes se perdent dans l’artéfact ; les formats de fichier changent. Une caractéristique visuelle simple mais proéminente et durable est la meilleure option pour l’instant. Quelque chose d’incontestable mais par ailleurs peu courant, comme un coin coupé à 45 degrés, au quart du côté. C’est visible et clair, que l’image soit également étiquetée comme « générée » dans le contexte, enregistrée au format PNG ou JPG, ou de toute autre qualité transitoire. Il ne peut pas être facilement flouté comme de nombreux filigranes, mais devrait être régénéré.

Il y a encore un rôle pour les métadonnées et des choses comme la chaîne de garde numérique, peut-être même la stéganographie, mais un signal clairement visible est utile.

Bien sûr, cela expose les gens à un nouveau risque, celui de faire confiance only aux images avec des coins coupés comme étant générées. Le problème auquel nous sommes déjà confrontés est que toutes les images sont suspectes, et nous devons nous appuyer entièrement sur des indices visuels plus subtils ; il n’existe pas de signal simple et positif qu’une image est générée. Le coin coupé est précisément un tel signal et aidera à définir cette pratique de plus en plus courante.

Annexe

Les gens ne contourneront-ils pas simplement des règles comme celles-ci avec des modèles non limités ?

Oui, et je pirate parfois des émissions de télévision. Je traverse parfois hors des passages piétons. Mais en général, je respecte les règles et les lois que nous avons établies en tant que société. Si quelqu’un veut utiliser un modèle de langage sans rime dans l’intimité de son foyer pour des raisons qui lui sont propres, personne ne peut ou ne devrait l’arrêter. Mais s’ils veulent rendre quelque chose largement disponible, leur pratique se déroule désormais dans un contexte collectif avec des règles établies pour la sécurité et le confort de tous. Le contenu pseudanthropique passe de la sphère personnelle à la sphère sociale, et des règles sociales s’appliquent à tous. Différents pays peuvent avoir des règles d’IA différentes, tout comme ils ont des règles différentes en matière de brevets, d’impôts et de mariage.

Pourquoi le néologisme ? Ne peut-on pas simplement dire « anthropomorphiser » ?

La pseudanthropie est un contrefait de l’humanité ; l’anthropomorphose est une transformation en humanité. Cette dernière est quelque chose que les humains font, une projection de sa propre humanité sur quelque chose qui en est dépourvu. Nous anthropomorphisons tout, des jouets aux animaux de compagnie en passant par les voitures et les outils, mais la différence est que rien de tout cela n’imite délibérément les qualités anthropiques afin de cultiver l’impression qu’ils sont humains. L’habitude de l’anthropomorphisme est un accessoire de la pseudanthropie, mais ce ne sont pas la même chose.

Et pourquoi le proposer de cette manière plutôt prétentieuse et sérieuse ?

Eh bien, c’est juste ma façon d’écrire !

Comment de telles règles pourraient-elles être appliquées ?

Idéalement, une commission fédérale d’IA devrait être créée pour élaborer les règles, avec la contribution d’acteurs tels que des universitaires, des défenseurs des droits civils et des groupes industriels. Mes suggestions générales ici ne sont pas exécutoires ni applicables, mais un ensemble rigoureux de définitions, de capacités, de restrictions et de divulgations fournirait le type de garantie que nous attendons des étiquettes alimentaires, des revendications médicamenteuses, des politiques de confidentialité, etc.

Si les gens ne peuvent pas faire la différence, est-ce vraiment important ?

Oui, du moins je le pense. Pour moi, il est clair que l’imitation superficielle des attributs humains est dangereuse et doit être limitée. D’autres peuvent penser différemment, mais je soupçonne fortement que, au cours des prochaines années, il deviendra beaucoup plus clair qu’un réel préjudice est causé par des modèles d’IA qui prétendent être des personnes. C’est littéralement déshumanisant.

Et si ces modèles sont vraiment conscients ?

Je considère comme axiomatique qu’ils ne le sont pas. Ce genre de question pourrait éventuellement devenir plausible, mais pour l’instant, l’idée que ces modèles sont conscients d’eux-mêmes est totalement infondée.

Si vous forcez les IA à se déclarer, ne sera-t-il pas plus difficile de les détecter lorsqu’elles ne le font pas ?

Il y a un risque qu’en rendant le contenu généré par l’IA plus évident, nous ne développerons pas naturellement notre capacité à le distinguer. Mais encore une fois, au cours des prochaines années, la technologie poussera probablement le progrès à un point où même les experts ne pourront pas faire la différence dans la plupart des contextes. Il n’est pas raisonnable de s’attendre à ce que les personnes ordinaires effectuent ce processus déjà difficile. En fin de compte, il deviendra une compétence cruciale en matière de culture et de littératie médiatique de reconnaître le contenu généré, mais il devra être développé dans le contexte de ces outils, car nous ne pouvons pas le faire avant. Jusqu’à ce que nous nous formions en tant que culture pour différencier l’original du généré, il sera très utile d’utiliser des signaux comme ceux-ci.

Est-ce que des règles comme celles-ci ne vont pas entraver l’innovation et le progrès ?

Rien de ces règles ne limite ce que ces modèles peuvent faire, seulement comment ils le font publiquement. Une interdiction de prendre des décisions mortelles ne signifie pas qu’un modèle ne peut pas sauver des vies, seulement que nous devrions choisir en tant que société de ne pas leur faire une confiance implicite pour le faire indépendamment de l’intervention humaine. De même pour le langage — cela n’empêche pas un modèle de trouver ou de fournir des informations, ou d’effectuer une fonction utile, seulement de le faire sous l’apparence d’un humain.

Vous savez que cela ne fonctionnera pas, n’est-ce pas ?

Mais ça valait le coup d’essayer.

Share your opinion

This site uses Akismet to reduce spam. Learn how your comment data is processed.