Je ne pense pas que ce soit tellement une question de savoir si cela semble “humain”. Il s’agit plus de reconnaissance de “tonalité”.
On reconnaît souvent qui est l’auteur d’un texte : les chroniqueurs en sont un bon exemple. Ils écrivent généralement tous à peu près la même quantité sur le même sujet, mais il est assez facile de les distinguer.
Cela a à voir avec le choix des mots, la structure de la phrase, etc. Vous pouvez généralement reconnaître les pièces plus longues d’Arnoud par les jeux de mots.
Mais pour un article d’actualité, il n’est pas surprenant que cet outil dise “peut-être IA”, car un article d’actualité ne devrait pas faire beaucoup de différence dans le ton qui l’a écrit. Peut-être que quelqu’un de Tweakers.net me corrigera, mais je suppose qu’il existe une structure standard.
Un exemple bien connu est le New York Times, qui pour la plupart des articles est le “Pyramide inversée” poignées.
Ces articles donnent toujours d’abord les faits sur le sujet : quoi/où/quand. Ensuite, ils partagent des détails importants et des grandes lignes et à la fin, vous trouvez l’observation d’une personne “ordinaire” (un témoin, ou quelqu’un qui l’a vu).
Il est donc parfaitement possible d’avoir un article qui se lit bien tout en reconnaissant qu’il a été généré par une IA, car par ex. certaines structures de phrases.
Le but de ChatGPT n’est pas de cacher le fait qu’il est écrit par une IA, après tout. Il s’agit de générer facilement un texte significatif et correct.
[Reactie gewijzigd door Keypunchie op 31 januari 2023 20:37]