GPT-2, cette intelligence artificielle pourrait devenir l'arme ultime des trolls

0
24

L'institut de recherche OpenAI – dans lequel Microsoft a récemment investi un milliard d'euros – vient de publier la version complète de GPT-2, une intelligence artificielle capable d'écrire des textes intelligibles à partir de quelques informations.
Pour y parvenir, les chercheurs ont formé un algorithme d’apprentissage automatique non supervisé sur plus de 8 millions de pages Web. Le résultat est un modèle de plus de 1,5 milliard de paramètres.

L'organisation aurait pu faire cette publication il y a longtemps, mais elle a préféré procéder par étapes, considérant que cette technologie avait un potentiel significatif de malveillance.
En février, les chercheurs OpenAI ont publié une première version restreinte, basée sur 124 millions de paramètres. En mai et août, ils ont publié des versions moins restrictives, avec respectivement 355 et 774 millions de paramètres. "Jusqu'à présent, nous n'avons vu aucune preuve solide d'abus", explique OpenAI dans une note de blog, pour justifier cette dernière publication.

Des textes presque de qualité humaine

GPT-2 est capable de créer des textes à partir de n'importe quoi. Certains sont un peu répétitifs et incohérents. D'autres, en revanche, sont franchement impressionnants. Les personnes interrogées par l'Université Cornell attribuent aux textes créés par GPT-2 un score de "crédibilité" de 6,91 sur une échelle de dix. Nous nous rapprochons donc d'une qualité "humaine", pour ainsi dire.

Pour vous en convaincre, rendez-vous sur talktotransformer.com, qui fournit une implémentation Web de cette intelligence artificielle. Vous pouvez créer des recettes factices, des passages imaginaires du Seigneur des anneaux, du code HTML, une documentation sur les logiciels, etc. Ci-dessous un texte généré à partir d'une phrase simple. Le résultat semble être un article de journal classique.

Le risque d'abus n'a bien sûr pas disparu. Au contraire, des chercheurs de l'Institut du terrorisme, de l'extrémisme et du contre-terrorisme de Middlebury (CETC) ont montré qu'il était possible d'adapter GPT-2 pour en faire un générateur de textes de propagande, en le formant à des corpus idéologiques spécifiques.
Quatre domaines ont été explorés: le suprémacisme blanc, le marxisme, le djihadisme et l'anarchisme. Les tests effectués ont montré qu’en spécialisant le modèle dans un univers idéologique, les textes devenaient encore plus crédibles. La nature synthétique de ces textes ne pouvait être reconnue automatiquement que sur un faible pourcentage d'entre eux.

Bientôt un Web rempli de messages synthétiques?

Dans les manipulateurs d’informations, GPT-2 pourrait ainsi rapidement devenir l’application «killer». Les usines Troll pourraient remplacer leurs employés par des robots logiciels. Les trolls peuvent être tentés de submerger les réseaux sociaux de logorrhée de textes artificiels, afin de capturer le plus grand espace de discussion et le plus de temps disponible disponible.

Heureusement, cette technologie n’est pas (encore) infaillible. Les chercheurs du CTEC & # 39; Une étude montre que, si les textes synthétiques sont détectables, ils sont précis à 100%, ne laissant aucune place au doute. Les acteurs malicieux qui utiliseraient une telle intelligence artificielle pourraient être démasqués assez facilement, à condition qu’ils puissent analyser un grand nombre de textes.

De toute évidence, les recherches se poursuivront et les modèles seront perfectionnés. Au cours de l'été, les chercheurs de Nvidia ont réussi à créer un modèle GPT-2 avec plus de 8 milliards de paramètres, améliorant considérablement la qualité du texte. La détection peut donc devenir de plus en plus difficile.

La source : OpenAI

LEAVE A REPLY

Please enter your comment!
Please enter your name here

This site uses Akismet to reduce spam. Learn how your comment data is processed.