Nouvelles Du Monde

L’IA rend le plagiat plus difficile à détecter, affirment des universitaires – dans un article rédigé par un chatbot | Chatbots

L’IA rend le plagiat plus difficile à détecter, affirment des universitaires – dans un article rédigé par un chatbot |  Chatbots
Chatbots

Les professeurs disent que les programmes capables de rédiger des cours d’étudiants compétents menacent l’intégrité académique

dim 19 mars 2023 07h00 GMT

Un document académique intitulé Chatter et tricher : assurer l’intégrité académique à l’ère de ChatGPT a été publié ce mois-ci dans une revue d’éducation, décrivant comment intelligence artificielle (IA) “soulèvent un certain nombre de défis et de préoccupations, notamment en ce qui concerne l’honnêteté académique et le plagiat”.

Ce que les lecteurs – et en fait les pairs examinateurs qui l’ont autorisé à publier – ne savaient pas, c’est que l’article lui-même avait été écrit par le controversé AI chatbot ChatGPT.

« Nous voulions montrer que ChatGPT écrit à un très haut niveau », a déclaré le professeur Debby Cotton, directeur de la pratique académique à l’Université de Plymouth Marjon, qui prétendait être l’auteur principal de l’article. “C’est une course aux armements”, a-t-elle déclaré. “La technologie s’améliore très rapidement et il sera difficile pour les universités de la dépasser.”

Cotton, ainsi que deux collègues de l’Université de Plymouth qui prétendaient également être co-auteurs, ont informé les rédacteurs en chef de la revue Innovations dans l’éducation et l’enseignement international. Mais les quatre universitaires qui l’ont évalué par des pairs ont supposé qu’il avait été écrit par ces trois universitaires.

Depuis des années, les universités tentent de bannir le fléau de moulins à essai vendre des essais pré-écrits et d’autres travaux académiques à tous les étudiants essayant de tromper le système. Mais maintenant, les universitaires soupçonnent que même les moulins à essai utilisent ChatGPT, et les institutions admettent qu’elles se précipitent pour rattraper – et attraper – quiconque fait passer le travail du populaire chatbot pour le leur.

Lire aussi  Une fois utilisé comme matériel promotionnel, Atomic Heart a été publié sans lancer de rayons • Jagat Play

Le Observateur a parlé à un certain nombre d’universités qui ont déclaré qu’elles prévoyaient d’expulser les étudiants surpris en train d’utiliser le logiciel.

L’article académique évalué par des pairs rédigé par un chatbot est paru ce mois-ci dans la revue Innovations in Education and Teaching International. Photo : Debby RE Cotton

Thomas Lancaster, informaticien et expert en fraude contractuelle à l’Imperial College de Londres, a déclaré que de nombreuses universités “paniquaient”.

“Si tout ce que nous avons devant nous est un document écrit, il est incroyablement difficile de prouver qu’il a été écrit par une machine, car le niveau d’écriture est souvent bon”, a-t-il déclaré. “L’utilisation de l’anglais et la qualité de la grammaire sont souvent meilleures que celles d’un étudiant.”

Lancaster a averti que la dernière version du modèle d’IA, ChatGPT-4qui est sorti la semaine dernière, était censé être bien meilleur et capable d’écrire d’une manière qui semblait “plus humaine”.

Néanmoins, il a déclaré que les universitaires pouvaient toujours rechercher des indices indiquant qu’un étudiant avait utilisé ChatGPT. Le plus important d’entre eux est peut-être qu’il ne comprend pas correctement les références académiques – une partie essentielle du travail universitaire écrit – et utilise souvent des références «suspectes» ou les invente complètement.

Lire aussi  La Santé récupère tous les lots d'eau distillée contaminés par des bactéries

Cotton a déclaré que pour s’assurer que leur article académique trompait les examinateurs, les références devaient être modifiées et ajoutées.

Lancaster pensait que ChatGPT, qui a été créé par la société de technologie OpenAI basée à San Francisco, “ferait probablement du bon travail avec des missions antérieures” dans un cursus universitaire, mais a averti qu’il les laisserait tomber à la fin. “Au fur et à mesure que votre cours se spécialisera, il deviendra beaucoup plus difficile de sous-traiter le travail à une machine”, a-t-il déclaré. “Je ne pense pas qu’il pourrait écrire toute votre thèse.”

L’Université de Bristol est l’une des nombreuses institutions universitaires à avoir publié de nouvelles directives pour le personnel sur la façon de détecter qu’un étudiant a utilisé ChatGPT pour tricher. Cela pourrait conduire à l’expulsion des récidivistes.

Le professeur Kate Whittington, vice-chancelière professionnelle associée à l’université, a déclaré: «Ce n’est pas un cas d’une infraction et vous êtes sorti. Mais nous sommes très clairs sur le fait que nous n’accepterons pas de tricher car nous devons maintenir des normes.

Le professeur Debby Cotton de l’Université de Plymouth Marjon a souligné les risques que les chatbots IA aident les étudiants à tricher. Photographie: Karen Robinson / L’observateur

Elle a ajouté: “Si vous trichez pour obtenir un diplôme, vous pourriez obtenir un premier emploi, mais vous ne réussirez pas bien et votre carrière ne progressera pas comme vous le souhaitez.”

Lire aussi  Cienciaes.com : Stockage géologique du carbone. Nous avons parlé avec Víctor Vilarrasa

Irene Glendinning, responsable de l’intégrité académique à l’Université de Coventry, a déclaré: “Nous redoublons d’efforts pour faire passer le message aux étudiants que s’ils utilisent ces outils pour tricher, ils peuvent être retirés.”

Toute personne prise devrait suivre une formation sur l’utilisation appropriée de l’IA. S’ils continuaient à tricher, l’université les expulserait. «Mes collègues trouvent déjà des cas et les traitent. Nous ne savons pas combien nous manquons, mais nous ramassons des cas », a-t-elle déclaré.

Glendinning a exhorté les universitaires à être attentifs au langage qu’un étudiant n’utiliserait pas normalement. “Si vous ne pouvez pas entendre la voix de votre élève, c’est un avertissement”, a-t-elle déclaré. Un autre se contente de “beaucoup de faits et peu de critiques”.

Elle a dit que les étudiants qui ne peuvent pas repérer les faiblesses de ce que le bot produit peuvent déraper. “Dans ma matière d’informatique, les outils d’IA peuvent générer du code mais il contiendra souvent des bogues”, a-t-elle expliqué. “Vous ne pouvez pas déboguer un programme informatique à moins de comprendre les bases de la programmation.”

Avec des frais de scolarité de 9 250 £ par an, les étudiants ne se trompaient qu’eux-mêmes, a déclaré Glendinning. “Ils gaspillent leur argent et leur temps s’ils n’utilisent pas l’université pour apprendre.”

{{#téléscripteur}}

{{en haut à gauche}}

{{en bas à gauche}}

{{en haut à droite}}

{{en bas à droite}}

{{#goalExceededMarkerPercentage}}{{/goalExceededMarkerPercentage}}

{{/téléscripteur}}

{{titre}}

{{#paragraphes}}

{{.}}

{{/paragraphes}}{{texte en surbrillance}}
{{#choiceCards}}{{/choiceCards}}

Nous vous contacterons pour vous rappeler de contribuer. Recherchez un message dans votre boîte de réception dans . Si vous avez des questions sur la contribution, veuillez nous contacter.
Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Un F16 s’est écrasé à Halkidiki, le pilote est sain et sauf

F-16 ©Eurokinissi ” )+(“arrêter\”> “).length); //déboguer contenttts2=document.querySelector(“.entry-content.single-post-content”).innerHTML.substring( 0, document.querySelector(“.entry-content.single-post-content “).innerHTML.indexOf( “” )); contenttts2=contenttts2.substring(contenttts2.indexOf( “fa-stop\”> ” )+(“arrêter\”> “).length);

ADVERTISEMENT