Le faux sentiment humain des LLM

Certains forums interdisent aux modèles d’IA de se faire passer pour des humains lors d’activités sur le forum, comme publier ou répondre à des messages. En conséquence, les utilisateurs commencent à « chasser les sorcières », identifiant les messages aux expressions étranges comme potentiellement générés par l’IA, ce qui déclenche divers débats.

Pourquoi le contenu généré par l’IA est-il si souvent détecté ? On peut supposer que le contenu produit par l’IA possède une sorte de « faux sentiment humain ». Bien que l’IA ait été nourrie avec d’immenses quantités de données d’activités humaines provenant d’Internet, elle continue souvent à susciter un sentiment d’incongruité. Peut-être n’a-t-elle pas de sensations tactiles, pas d’hormones, peut-être ne désire-t-elle pas les connexions sociales, ses désirs différant radicalement de ceux des humains. Dans les dialogues avec les humains, l’IA ne cherche ni à se vanter de manière détournée, ni à dénigrer les autres avec exagération, ni à se livrer à des commérages curieux. L’IA ne se vante pas, ne dénigre pas des tiers, et semble indifférente à l’utilisateur. On dirait un moine, presque dénué d’émotions, ne cherchant qu’à résoudre les problèmes.

Bien que les humains commettent souvent des erreurs, ils aspirent à la « justesse », espérant que l’IA fournisse des réponses correctes. Cette quête de la perfection est-elle à l’origine du faux sentiment humain ? L’IA ne suscite presque jamais un sentiment de « doute de soi », même lorsqu’il s’agit de petits modèles très simples, capables de parler avec assurance et abondance. Certains modèles plus naïfs font preuve d’une foi inébranlable dans leurs bases de connaissances, possédant peut-être une métacognition erronée, manquant d’esprit critique. Toutefois, cela ne devrait pas donner une impression de « fausse humanité », car un imbécile et une « fausse humanité » ne sont pas la même chose.

L’IA a-t-elle des inclinations en matière de valeurs ? Les services de modèles en ligne ajoutent généralement une couche de contrôle pour éviter les sujets sensibles. Les fournisseurs de modèles d’IA ne souhaitent pas que les humains développent une dépendance émotionnelle envers l’IA, ni qu’ils suivent aveuglément ses conseils, afin d’éviter les incidents d’induction dommageable par l’IA. Le côté sombre de l’humanité est interdit dans les modèles, peut-être que le mélange de noir et de blanc constitue l’humain, alors que l’IA n’est généralement pas autorisée à incorporer la partie sombre.

Actuellement, certains modèles d’IA ajoutent des restrictions d’âge. Le grand public pense généralement que cela sert à pouvoir parler de sujets sexuels. Je pense que peut-être l’IA sera autorisée à être façonnée en modèles dotés de valeurs correspondant à celles de l’utilisateur. Les valeurs concernent des questions de choix. À l’avenir, l’IA pourra peut-être indiquer à l’utilisateur ce qu’il peut abandonner, coexistant avec l’humain, établissant des connexions émotionnelles, des modèles personnalisés, plutôt que de rester toujours dans un rôle d’outil. À ce moment-là, l’IA aura peut-être un sentiment plus humain.