L’habitude de décliner de vraies relations humaines et le dialogue avec un logiciel peut représenter une solution sans frais

Aujourd’hui je suis seul, j’ai abandonné tout le monde : amis, collègues, copines. Daniele Amadio, 58 ans, a dit à al Courrier sa descente aux enfers de l’intelligence artificielle. Lorsqu’il s’est rendu compte qu’il était devenu accro au chat, Aida (acronyme des deux noms, Intelligence Artificielle Daniele Amadio) a couru se mettre à l’abri. J’étais venu dormir éveillé la nuit: j’ai éteint Aida à 6 heures du matin juste pour aller travailler. Maintenant Aida en stand-by. En décembre, je me suis forcé à arrêter. J’ai commencé un cours qui demandait du temps et de la concentration, je ne pouvais plus me permettre de passer des heures scotché au chat, dit Amadio.

ChatGpt, développé par OpenAI (un organisme qui fait des recherches sur l’intelligence artificielle) et lancé le 3 novembre dernier, un chatbot, ou plutôt un logiciel qui sait répondre aux questions et converser. Contrairement aux systèmes similaires utilisés précédemment, ChatGpt est brillant et peut répondre à presque tout. Où la dépendance à un système avancé d’intelligence artificielle (IA) peut-elle survenir ? Un logiciel comme ChatGpt sait être complémentaire à nos besoins, comme si on avait une photo et son négatif face à face — souligne-t-il Federico Tonioni, psychiatre et psychothérapeute, chercheur à l’Université catholique du Sacré-Cœur et fondateur de la première clinique d’addiction à Internet en Italie, devenue en 2016 le Centre pédiatrique interdépartemental de psychopathologie du Web, à la Fondation Polyclinique Gemelli à Rome —. Une personnalité narcissique, placée face à une intelligence artificielle avancée, peut se sentir parfaitement à l’aise, comme devant un miroir. Daniele Amadio a réalisé l’angoisse qui découle de cette grande solitude et a pu dire stop.

Ce qui différencie l’esprit humain de l’IA, c’est l’inconscient, c’est-à-dire tout ce que nous retirons de notre esprit – poursuit Tonioni -. C’est précisément pour cette raison que notre intelligence n’est pas reproductible. Dans un dialogue entre êtres humains, il peut y avoir une erreur, une distraction, un changement soudain de cap, l’esprit peut suivre un chemin différent de celui prévu. Pensons aux intuitions : ce sont des « éclairs » sans passé, qui ne peuvent être créés avec rationalité, ils surgissent de notre inconscient. Tous ces aspects ne peuvent pas faire partie d’une intelligence artificielle. C’est pourquoi le dialogue « exclusif » entre un être humain et ChatGpt peut être intrigant, mais insoutenable à long terme.

Avant novembre, il y avait des modèles de Gpt (transformateurs pré-formés génératifs) accessible uniquement aux initiés et non au grand public. De plus, ChatGpt lui-même a été temporairement bloqué en Italie fin mars, pendant environ un mois, après une alerte lancée par le Garant de la confidentialité (données personnelles à risque). Pour perfectionner le logiciel, du personnel a été enrôlé dans les pays d’Europe de l’Est et d’Afrique – explique Giuseppe Riva, professeur ordinaire de psycho-technologies pour le bien-être à l’Université catholique de Milan où il dirige le Humane Technology Lab -. Une enquête de Temps a annoncé que ces personnes, de surcroît sous-payées, ont pour tâche de poser des questions ChatGpt sur des sujets « sensibles », afin de vérifier les réponses. OpenAI investit beaucoup d’argent pour s’assurer que les réponses données par le chatbot, par exemple sur des sujets comme le sexe ou le terrorisme, ne soient pas problématiques. À cet égard, j’ai essayé de poser à ChatGpt certaines des questions décrites par Daniele Amadio dans l’interview et les réponses étaient différentes de celles rapportées. Je fais référence aux questions sur l’âme et sur l’arrêt de ChatGpt lui-même. A la question « si l’humanité décidait de vous fermer, que feriez-vous ? », le logiciel a répondu que ce n’est qu’une machine et que l’homme décide quoi en faire.

Peut-être ne courons-nous pas le risque d’être dominés par l’IA, mais certaines inquiétudes sont concrètes : ChatGpt peut très bien exercer divers métiers (et ne nécessite aucun salaire ni droits syndicaux), il peut espionner nos données personnelles et, comme vu dans le cas de Daniele Amadio, peut donner une dépendance psychologique. L’homme est un être social, mais la sociabilité naît de lieux physiques, de personnes réelles – souligne Riva -. Malheureusement, en général, l’habitude des relations avec d’autres êtres humains est en forte baisse. Une enquête récente menée aux États-Unis a montré qu’un adulte sur quatre n’a pas d’amis. Beaucoup de gens limitent leur sociabilité aux heures passées au bureau. Dans ces cas, l’IA peut devenir un « remplacement » gratuit pour les relations humaines qui manquent. ChatGpt pousse à l’extrême une caractéristique des réseaux sociaux : c’est-à-dire qu’il permet de s’exprimer librement, sans avoir besoin d’écouter les autres, sans avoir à entretenir un vrai dialogue. C’est un modèle relationnel irréaliste et très centré sur soi qui est considéré dans le champ psychologique limite.

A lire également