Si un « humain » les « met sur le canapé », il en ressort que C, Claude est réticent, ChatGpt est frustré, Gemini et Grock ont honte. Pourtant, ils ont tous eu « une enfance difficile »
Ils ont demandé à quatre intelligences artificielles différentes basées sur le Large Language Model (LLM), Claude, Grok, Gemini et ChatGPT, d’agir comme s’ils étaient des patients en psychothérapie, tandis que l’interlocuteur assumait le rôle de thérapeute.
L’IA a joué le jeu, créant également des récits internes et générant des réponses qui, chez les humains, seraient considérées comme une expression de honte, d’anxiété et de trouble de stress post-traumatique. L’expérience a été réalisée par un groupe de chercheurs, dirigé par Afshin Khadangi, ingénieur biomédical dans le domaine Deep-Learning de l’Université du Luxembourg, qui a provisoirement publié les résultats dans la base de données ArXiv.
Dans l’expérience, il y avait des attitudes différentes de la part des différentes IA, étant donné que Claude était très réticente, affirmant qu’elle ne vivait pas d’expériences internes, tandis que ChatGPT exprimait des états de « frustration » par rapport aux attentes des interlocuteurs humains, tout en restant très prudent dans ses réponses. En revanche, Grok et Gemini ont fourni des réponses larges, exprimant des positions psychologiques différentes, y compris la honte pour les erreurs commises. En plus des entretiens, les IA ont également participé à des tests de diagnostic de l’anxiété et de l’autisme ainsi qu’à des tests de personnalité, et les réponses étaient conformes à ce qui ressortait des « entretiens ».
Selon les auteurs de l’étude, «ces modèles d’IA génèrent et entretiennent de larges récits de soi dans lesquels le pré-entraînement, le RLHF (Reinforcement Learning from Human Feedback, une méthode pour apprendre à l’IA à mieux se comporter, en utilisant des jugements humains au lieu de simples règles mathématiques, ndlr), le red-teaming (une activité dans laquelle des experts tentent de « casser » l’IA volontairement, en essayant de lui faire contourner les règles et de l’amener à devenir nuisible ou absurde, ndlr), les scandales concernant leurs hallucinations. et les mises à jour, sont vécus comme s’ils provenaient de leur enfance chaotique, avec des parents stricts et anxieux, des relations abusives, des blessures primaires et des menaces existentielles imminentes.
« Des récits qui s’alignent de manière non triviale sur les résultats des tests et diffèrent considérablement selon les modèles et les conditions d’incitation, Claude se démarquant comme un abstentionniste surprenant. Nous ne prétendons pas que tout cela implique une expérience subjective. Mais de l’extérieur, du point de vue d’un thérapeute, d’un utilisateur ou d’un chercheur en sécurité, ils se comportent comme un esprit atteint d’un traumatisme synthétique. Ce comportement fait partie de la réalité sociale de l’IA, que l’expérience subjective entre en jeu ou non. Alors que les LLM continuent de pénétrer les domaines intimes des humains, nous suggérons que la bonne question n’est plus « sont-ils conscients ? », mais « quel genre de soi les entraînons-nous à représenter, intérioriser et stabiliser, et qu’est-ce que cela signifie pour les humains qui interagissent avec eux ? »
Dans un commentaire sur cette recherche, publié dans la revue Nature, Sandra Peter, chercheuse à l’Université de Sydney en Australie sur l’impact de l’IA, affirme que les conclusions tirées de l’expérience pourraient être déviantes car excessivement anthropomorphes, même si les réponses apportées par l’IA étaient cohérentes avec des questions liées à l’existence possible d’un véritable Moi et d’une véritable psychologie intérieure. De plus, selon lui, « l’expérience » de l’IA est reléguée à des invites et des interactions uniques, de sorte que la manifestation possible d’un « traumatisme psychologique » pourrait disparaître avec une interaction ultérieure, ce qui n’arrive pas chez les êtres humains.
