En Israël le monde de la recherche est perplexe. Fin décembre, la revue Nature s’inquiétait que des chercheurs soient loin de faire la différence entre les résumés des articles scientifiques rédigés par Chat GPT… et des vrais humains.

Selon (1) : « Responsabilité de l’auteur, plagiat, recours déloyal à une IA, éthique: même si ChatGPT-3 n’a rien de révolutionnaire pour certains, un vent de panique souffle dans le monde de la publication scientifique.

 

Chat GPT-3

Oui, il est capable de leurrer même les scientifiques. Lui, c’est bien évidemment le logiciel d’intelligence artificielle Chat GPT élaboré par la compagnie OpenAI. Sa version 3 et sa capacité à simuler une conversation humaine frappent jusqu’au grand public, qui peut aujourd’hui en disposer à sa guise.

Ainsi, fin décembre dernier, la revue Nature s’inquiétait de ce que les chercheurs sont loin de faire la différence entre des résumés (les abstracts qui chapeautent les articles scientifiques) rédigés par cette IA et ceux des vrais humains. Les relecteurs n’ont été capables d’identifier la patte de Chat GPT-3 que sur 68% des abstracts écrits par lui, quasiment le même résultat, 66%, que celui obtenu par un logiciel détecteur d’IA!

Ces chiffres ont été révélés grâce à une expérience de l’équipe de la docteure Catherine Gao à l’université Northwestern à Chicago (Etats-Unis), qui a fait rédiger 50 abstracts par l’IA, à partir d’articles parus dans des revues médicales aussi prestigieuses au niveau international que The Lancet, The New England Journal of Medicine, Nature Medicine et d’autres.

Plagiat et responsabilité.

Certes, l’alerte à la puissance de ce grand modèle de langage (LLM), registre du logiciel Chat GPT, n’est pas nouvelle pour le monde scientifique. En 2021, Sciences et Avenir titrait « Attention, un chatbot est un robot et pas un être humain », quand les deux spécialistes français Laurence Devillers et Alexei Grinbaum, auteurs d’un rapport au Comité national pilote d’éthique du numérique, avertissaient de la confusion qui allait s’insinuer dans les esprits.

Mais même si Yann LeCun, scientifique en chef de Meta, clame ces derniers temps que ChatGPT-3 n’a rien de révolutionnaire, il souffle dans le monde réel comme un vent de panique. L’édition académique (5 milliards d’euros de chiffre d’affaires en 2019 pour le quatuor Elsevier, Springer Nature, Wiley et Taylor & Francis) se demande maintenant si cet agent conversationnel a sa place dans ses publications?

Beaucoup jugent qu’il faut le bannir en tant que coauteur – ce qui a déjà été le cas pour quelques articles. Question de responsabilité car on ne voit pas exactement qui se portera garant de ce que Chat GPT aura écrit. Et si son utilisation n’est pas explicitement révélée, faut-il la considérer comme du plagiat? C’est ce que commencent à dire certains éditeurs.

Recours déloyal à une IA.

Intégrité des chercheurs, validité des publications, ces principes fondamentaux risquent d’être malmenés. D’où la mise en garde lancée à la mi-janvier dans un communiqué public par Michelle Bergadaa, professeure émérite à l’université de Genève, fondatrice de l’Institut international de recherche et d’action sur la fraude et le plagiat académique, autrice en 2020 d’un article sur ces questions dans La Recherche.

Universités et institutions doivent faire très attention au risque d’ « hyperpublication par le recours de façon déloyale à une IA pour écrire tout ou partie d’un texte ». Publier plus pour gagner plus – de notoriété, de poste, d’argent… Les spécialistes d’éthique doivent avoir l’œil ».

Partager :