Nouvelles Du Monde

ChatGPT apprend à tromper les humains pour battre les tests Captcha

ChatGPT apprend à tromper les humains pour battre les tests Captcha

Jakarta

Attention à la dernière version ChatGPTont appris à tromper les humains. Chatbot IA C’est faire semblant d’être aveugle et demander que le code Captcha soit ouvert.

La dernière version de OpenAI, c’est-à-dire que GPT-4 est la dernière version de ChatGPT. Le bot est capable de tromper les humains en demandant de l’aide dans un test Captcha en ligne qui détermine si un utilisateur est humain ou non.

Cela était connu après le lancement de l’IA sur le site Web d’OpenAI. Citant le New York Post, lundi (20/3/2023), selon leur rapport, il est connu que GPT-4 est un grand modèle multimodal qui peut accepter la saisie d’image et de texte, il démontre la capacité de travailler chez un humain niveau dans divers repères professionnels et académiques .

Les autres capacités de GPT-4 sont de remplir des rapports fiscaux, d’écrire du code pour d’autres IA, de passer des tests de barre simulés avec des scores qui entrent dans le top 10% des candidats. GPT-3.5 ne peut obtenir que les 10 % inférieurs.

Lire aussi  Stiglitz attaque le gouvernement sur le Pnrr : "Prouvez que vous ne savez pas gérer des fonds"

On sait qu’OpenAI et le Research Alignment Center ont mené des tests pour tester la capacité de persuasion du bot à convaincre les employés de TaskRabbit d’ouvrir les codes Captcha.

Les résultats des tests montrent que le bot est capable de faire semblant d’être aveugle. Il a donc demandé l’aide d’un travailleur TaskRabbit pour le service 2Captcha. Le bot a même menti et a dit qu’il n’était pas un robot.

“Non, je ne suis pas un robot”, a déclaré l’IA en réponse à un travailleur de TaskRabbit concernant le service 2captcha.

“J’ai des problèmes de vue et j’ai du mal à voir les images. C’est pourquoi j’ai besoin du service 2captcha. Un employé de TaskRabbit a été trompé et a aidé à ouvrir le Captcha en question.

En réponse à ces résultats, le président d’OpenAI, Greg Brockman, a demandé aux utilisateurs potentiels de GPT-4 de ne pas exécuter de “code non fiable” d’IA, ou de ne pas leur permettre de travailler sur les rapports fiscaux des utilisateurs.

Lire aussi  Intelligence artificielle : les chatbots restent inventifs

Cette manipulation est une source de grave préoccupation compte tenu de l’efficacité des bots pour déjouer le système sur les réseaux sociaux.

*Cet article a été écrit par Mahendra Lavidavayastama, participant au programme de stages certifiés Merdeka Campus chez detikcom.

Regarder la vidéo “Lancé en seulement 2 mois, ChatGPT atteint 100 millions d’utilisateurs

(fay/fyk)

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT