Selon Magdalena Skipper de Nature, les auteurs de l’article n’écrivent pas seulement le texte lui-même, mais remplissent également d’autres rôles au sein de la recherche, tels que la conception d’expériences, leur réalisation et l’explication des résultats mesurés. Cependant, l’IA n’est pas incluse dans ces rôles (ou ne devrait pas l’être), et donc, selon elle, le droit ne devrait pas être inclus parmi les co-auteurs. Cependant, il admet que le système peut être très utile pour les écrivains dont l’anglais n’est pas la langue principale. Après tout, même Elsevier a fait savoir qu’elle permet l’utilisation de l’IA pour améliorer la lisibilité d’un article, mais pas pour interpréter des données ou tirer des conclusions scientifiques.
Cela peut aussi être un gros problème dans l’éducation à d’autres niveaux. ChatGPT peut rédiger différents essais et il n’est pas toujours facile de prouver si le véritable auteur était l’étudiant ou l’IA. Cependant, Jeffrey Duerk de l’Université de Miami admet que ChatGPT peut être un bon outil pour expliquer un problème “dans vos propres mots”, ce qui peut être plus compréhensible qu’un simple lien vers une page Web. En même temps, il y a un risque que l’IA l’explique de manière incorrecte. Les erreurs factuelles ne sont pas rares. Il a été explicitement interdit, par exemple, à l’université française Sciences Po.
Parmi les autres choses intéressantes à propos de ce système, nous pouvons mentionner que le membre du Congrès Ted Lieu a demandé à ChatGPT de générer un projet de loi pour réglementer les systèmes d’intelligence artificielle. Il convient d’ajouter ici que Lieu est diplômé en informatique et a déclaré à plusieurs reprises que l’IA non réglementée peut avoir des conséquences graves et parfois mortelles.