On en parle beaucoup depuis un certain temps ChatGptun chatbot, c’est-à-dire un logiciel, qui sait répondre aux questions et converser, mais sait aussi rédiger une lettre de motivation, expliquer un concept complexe avec des mots simples et bien plus encore, notamment aider les chercheurs à rédiger des articles scientifiques, à différents niveaux. Le cas de la contribution qu’ils peuvent apporter à la rédaction d’un ouvrage scientifique ouvre des questions singulières, auxquelles les directeurs des principales revues scientifiques s’emploient activement. La raison? Peut-on (ou doit-on) citer ChatGpt parmi les auteurs de l’article lors de son envoi à la revue pour publication ? La question est un peu plus épineuse et un peu moins sectorielle qu’il n’y paraît à première vue. En fait, certains magazines estiment qu’ils ne peuvent pas accepter le système Intelligence artificielle en tant qu’auteur car de fait il ne saurait être considéré comme assujetti à la responsabilité individuelle, d’autres revues objectent que ne pas le compter parmi les auteurs mais exploiter sa contribution serait un plagiat.

Un dilemme qui, en ces termes, ne semblerait concerner qu’une niche de personnes traitant de publications scientifiques. Mais vous n’avez pas besoin d’avoir beaucoup d’imagination pour imaginer comment et combien peut s’étendre à n’importe quel secteur déjà ici et maintenant, et non plus dans un avenir plus ou moins proche. Pensez simplement au thème de brevetsou à celui du droits d’auteurou encore, rester avec les thèmes de ces pages, à diagnostic: qui est pénalement et civilement responsable si un médecin interprète mal un examen après avoir été assisté par un système d’Intelligence Artificielle ? Bien sûr, il y aura toutes les clauses de non-responsabilité spécifiques dans le consentement éclairé soumis avant l’examen pour protéger les médecins, les compagnies d’assurance et les hôpitaux, mais un fait que l’entrée omniprésente de ce type de systèmes dans le monde de la santé, associée à de grandes opportunités, générera de nombreuses nouvelles questionsce que nous ne sommes probablement pas encore capables d’imaginer.

Une considération reste valable : si les outils technologiques peuvent être utiles au médecin, voire le remplacer en grande partie, quand vous serez malade, vous continuerez à chercher non seulement un remèdeun soulagement organique, une guérison, seront recherchés encore et toujours quelqu’un qui nous comprend, nous accueille. Cet être médecin ne peut raisonnablement jamais être vicariat. Nous avons et aurons toujours besoin d’être entendus par une cellule carbone, quelle que soit l’efficacité et l’efficacité d’une unité de silicium. Et de toute façon, juste pour sourire, Alex Zhavoronkov, responsable d’Insilico Medicine, qui a utilisé ChatGpt en tant que co-auteur d’articles scientifiques d’un certain type, a déclaré natures Ce quand il l’a testé sur quelque chose de plus technique il a été déçu: Il n’arrêtait pas de répéter des affirmations qui n’étaient pas nécessairement vraies, et si je lui posais plusieurs fois la même question, il donnait des réponses différentes. Pour sa part Paolo Ottolinaexpert technique de Corriere.it, nous avons entendu de ChatGpt que les gressins sont d’excellentes alternatives aux forceps chirurgicaux. Bref, peut-être que pendant encore un petit moment nous serons encore utiles à quelque chose…

A lire également