ChatGPT, signataire de publications scientifiques ?

Christophe Gattuso

Auteurs et déclarations

7 février 2023

Paris, France -- ChatGPT signera-t-il bientôt couramment des articles dans les revues scientifiques ? La question est loin d’être saugrenue. Quelques publications ont déjà compté l’agent conversationnel parmi leurs signataires.  Springer Nature , plus grand groupe d’édition scientifique, a annoncé il y a quelques jours qu’il ne créditerait pas ChatGPT en tant qu’auteur dans ses 3 000 publications.

Plusieurs autres éditeurs lui ont emboîté le pas. Un consensus semble se dégager pour que les modèles de langage tels que ChatGPT ne signent pas d’article mais que leur utilisation soit systématiquement mentionnée. Plus radicale, la revue américaine Science en interdit l’usage pour éviter tout risque d’erreur.

ChatGPT n’en finit pas de faire parler de lui. Lancé en novembre dernier par Open AI, le robot conversationnel bouscule le monde de la santé. Il pourrait entraîner une révolution technologique dans le suivi, la télésurveillance et l’éducation thérapeutique des patients. Certains entrevoient également qu’il apporte une aide précieuse au diagnostic médical. Mais pas seulement ! Des chercheurs voient l’avantage qu’ils pourraient tirer d’un outil d’intelligence artificielle aussi puissant.

L’an dernier,  Nature relevait déjà que certains scientifiques utilisaient des chatbots comme assistants de recherche pour générer des commentaires sur leur travail, écrire du code, reformuler certains paragraphes ou synthétiser leur pensée.

Des auteurs pas à la hauteur ?

La mise en ligne de ChatGPT a marqué une nouvelle étape. Nature a ainsi relevé le 18 janvier que plusieurs revues avaient mentionné ces dernières semaines l’agent conversationnel comme co-auteur d’un article. C’est le cas d’ Oncoscience  mais aussi de  Nurse Education in practice  ou encore d’une prépublication de MedRxiv sur les résultats de ChatGPT à l’USMLE, l’examen permettant de décrocher le diplôme de médecine aux Etats-Unis.

Jack Po, le PDG de Ansible Health, la société qui a financé cette dernière recherche, assume ce choix et affirme que le chatbot a tenu un rôle important. « La raison pour laquelle nous avons cité ChatGPT comme auteur est que nous pensons qu'il a réellement contribué intellectuellement au contenu de l'article et pas seulement comme sujet pour son évaluation », a-t-il déclaré à Futurism .

Le rédacteur en chef de Nurse Education in practice a quant à lui plaidé une erreur et assuré qu’il retirerait la mention d’auteur à ChatGPT. Il n’empêche, tous ces articles cités avec un auteur non humain sont aujourd’hui indexés dans PubMed.

 
La raison pour laquelle nous avons cité ChatGPT comme auteur est que nous pensons qu'il a réellement contribué intellectuellement au contenu de l'article et pas seulement comme sujet pour son évaluation. Jack Po, PDG de Ansible Health
 

L’appel de Nature à la transparence

L’irruption de ChatGPT intrigue le milieu universitaire autant qu’il l’affole. En pointe sur ce sujet, le groupe Springer Nature a le premier pris position.

Le 26 janvier, il a indiqué qu’il refusait de créditer ChatGPT parmi les signataires des articles de ces quelque 3000 revues. L’important éditeur de revues scientifiques a modifié ses règles de soumission

« La règle acceptée aujourd'hui est que tous les auteurs d'un article scientifique sont responsables de chaque partie de celui-ci et sont tenus de se contrôler mutuellement », indique notre consoeur Daniela Ovadia, de la rédaction d’Univadis Italie qui est également spécialiste de neuroéthique à l’université de Pavie.

Et, c’est là où le bât blesse. Les nouvelles règles de Nature indiquent dorénavant noir sur blanc que les grands modèles de langage (LLM), dont ChatGPT fait partie, ne satisfont pas les critères permettant d’être reconnus en tant qu’auteur, « ne pouvant porter la responsabilité de leur travail ». L'utilisation d'un LLM par les chercheurs doit en revanche être correctement documentée dans la partie méthodologie de l’article (ou dans une autre section) afin de garder une entière transparence vis-à-vis des lecteurs.

Dans un récent éditorial, le groupe JAMA a également fait part de ses craintes et pris position.

« La communauté de l'édition scientifique a rapidement fait part de ses inquiétudes quant à l'utilisation potentiellement abusive de ces modèles linguistiques dans la publication scientifique », écrivent les auteurs de l'éditorial du JAMA qui précisent qu’ont été posées à ChatGPT « des questions sur des sujets controversés ou importants (par exemple, est-ce que la vaccination des enfants provoque l'autisme) ainsi que des questions techniques et éthiques spécifiques liées à la publication[1,2,3]. Leurs résultats ont montré que les réponses textuelles de ChatGPT aux questions, bien que la plupart du temps bien écrites, étaient uniformes (ce qui n'était pas facilement discernable), non-actualisées, fausses ou fabriquées, sans références précises ou complètes, et pire, avec des preuves inexistantes concoctées pour les revendications ou les déclarations qu'il fait. »

Le réseau JAMA indique donc lui aussi que « l'intelligence artificielle non humaine, les modèles de langage, l'apprentissage automatique ou les technologies similaires ne peuvent être considérés comme des auteurs » et que « les auteurs [humains] doivent assumer la responsabilité de l'intégrité du contenu généré par ces modèles et outils ».

Il recommande aux auteurs de continuer de rendre compte de l'utilisation de logiciels d'analyse statistique, notamment pour les essais incluant des interventions d'IA, l'apprentissage automatique dans les études de modélisation ou pour les études de pronostic et de diagnostic.

Il indique qu’il « continuera à revoir et à faire évoluer les politiques éditoriales et de publication en réponse à ces développements dans le but de maintenir les normes les plus élevées de transparence et d'intégrité scientifique ».

Science veut éviter de « nombreuses erreurs »

Certains éditeurs envisagent cependant d‘aller plus loin encore que l’interdiction de signature en refusant purement et simplement l’usage de l’IA dans la recherche. C’est le cas de la revue américaine Science. « Compte tenu de la frénésie autour de ce sujet, c'est une bonne idée de rendre absolument explicite que nous ne permettrons pas à ChatGPT d'être un auteur ou que son texte soit utilisé dans des articles », a déclaré Holden Thorp au Guardian.

Le rédacteur en chef de Science estime que même l'utilisation de ChatGPT dans la préparation d'un article est problématique, du fait des « nombreuses erreurs qui pourraient se retrouver dans la littérature ». Il importe selon lui que les scientifiques ne s'appuient pas sur des programmes d'IA pour préparer des revues de littérature ou résumer leurs conclusions. Cela pourrait nuire à la mise en perspective du travail mené et à l'examen approfondi des résultats.

 
Compte tenu de la frénésie autour de ce sujet, c'est une bonne idée de rendre absolument explicite que nous ne permettrons pas à ChatGPT d'être un auteur ou que son texte soit utilisé dans des articles. Holden Thorp, rédacteur en chef de Science
 

Pour information, cet article n’a pas été rédigé par ChatGPT.

 

ChatGPT, une opportunité à bien « encadrer », selon des chercheurs en médecine générale
Contacté par Medscape Edition française, le Dr Xavier Gocko, médecin généraliste à Saint-Etienne et directeur de la rédaction d’Exercer, la revue francophone de médecine générale, confie ne pas être inquiet par l’émergence nouvelles technologies dans la recherche : « De mon point de vue, l’IA ne se substituera pas à l’homme mais pourra l’aider. Il ne faut pas en avoir peur mais apprendre à l’utiliser. » Le médecin a testé ChatGPT avec son confrère généraliste, le Dr Dragos-Paul Hagiu. « Nous avons vu qu’il était capable de réaliser un tableau avec des verbatims, ou de rédiger un petit abstract selon la philosophie de Michel Foucault mais qu’il avait des failles sur les statistiques, relate le Dr Hagiu. Je vois plus ChatGPT comme une opportunité pour automatiser certaines tâches. » Le Pr Olivier Saint-Lary, président du Collège national des généralistes enseignants (CNGE) estime pour sa part illusoire d’imaginer interdire l’usage des nouveaux outils d’IA dans la recherche et prône pour un réel encadrement. « Il faut que les reviewers aient les moyens d’identifier ce qui relève d’une écriture par une IA », déclare-t-il. De la même manière qu’il existe des logiciels pour détecter d’éventuels plagiats, le sujet va être de trouver comment repérer l’utilisation de ces LLM. « Et celui qui risque de vendre cet outil pour repérer ChatGPT pourrait bien être le concepteur de ChatGPT. »

 
Il faut que les reviewers aient les moyens d’identifier ce qui relève d’une écriture par une IA.
 

 

Suivez Medscape en français sur Twitter.

Suivez theheart.org | Medscape Cardiologie sur Twitter.

Inscrivez-vous aux newsletters de Medscape : sélectionnez vos choix

 

Commenter

3090D553-9492-4563-8681-AD288FA52ACE
Les commentaires peuvent être sujets à modération. Veuillez consulter les Conditions d'utilisation du forum.

Traitement....