Nouvelles Du Monde

“Je veux donner plus de contrôle…” Sam Altman répond au jailbreak ChatGPT DAN

“Je veux donner plus de contrôle…” Sam Altman répond au jailbreak ChatGPT DAN

Le PDG d’OpenAI, Sam Altman, a maintenant répondu aux utilisateurs qui ont jailbreaké ChatGPT pour contourner les restrictions de contenu intégrées. Peu de temps après le lancement de ChatGPT en novembre de l’année dernière, les utilisateurs ont essayé de trouver un moyen de contourner les protections mises en place par OpenAI. La société, pour sa part, est restée silencieuse sur la tentative des utilisateurs de contourner ses mesures de sécurité tout en apportant des mises à jour régulières au chatbot.

Le PDG d’OpenAI, Sam Altman, a maintenant répondu aux utilisateurs qui ont jailbreaké ChatGPT pour contourner les restrictions de contenu intégrées. Peu de temps après le lancement de ChatGPT en novembre de l’année dernière, les utilisateurs ont essayé de trouver un moyen de contourner les protections mises en place par OpenAI. La société, pour sa part, est restée silencieuse sur la tentative des utilisateurs de contourner ses mesures de sécurité tout en apportant des mises à jour régulières au chatbot.

Lire aussi  Du licenciement brutal à la révolte du personnel, 106 heures de crise chez OpenAI

Lors d’une conversation avec l’informaticien et podcasteur Lex Friedman, Altman a déclaré: “Nous voulons que les utilisateurs aient beaucoup de contrôle et que le modèle se comporte comme ils le souhaitent dans des limites très larges.”

Lors d’une conversation avec l’informaticien et podcasteur Lex Friedman, Altman a déclaré: “Nous voulons que les utilisateurs aient beaucoup de contrôle et que le modèle se comporte comme ils le souhaitent dans des limites très larges.”

Expliquant la raison pour laquelle les utilisateurs jailbreakent ChatGPT, Altman a déclaré: «Je pense que toute la raison du jailbreak est en ce moment, nous n’avons pas encore compris comment aimer donner cela aux gens. Et plus nous résolvons ce problème, je pense que moins il y aura besoin de jailbreak.”

Le PDG d’OpenAI a également partagé son expérience avec le jailbreak de l’iPhone de première génération à un stade très précoce de sa vie. Il a dit: “Vous savez, quand j’étais enfant, j’ai eu deux fois le jailbreak d’un iPhone, le premier iPhone je pense et je pensais que c’était tellement cool.”

Le PDG d’OpenAI a également partagé son expérience avec le jailbreak de l’iPhone de première génération à un stade très précoce de sa vie. Il a dit: “Vous savez, quand j’étais enfant, j’ai eu deux fois le jailbreak d’un iPhone, le premier iPhone je pense et je pensais que c’était tellement cool.”

Les nouveaux commentaires du patron d’OpenAI surviennent à un moment où les utilisateurs expérimentent ChatGPT dans le but de le “jailbreaker”. Les utilisateurs ont demandé à ChatGPT de se comporter comme un chatbot “DAN” ou Do Anything Now. Une fois dans son avatar DAN, ChatGPT est capable de parler de choses auxquelles le chatbot ne répond généralement pas, affirmant qu’il s’agit simplement d’un modèle de langage.

Récemment, ChatGPT a dévoilé son modèle de langage GPT-4 le plus récent et le plus puissant à ce jour, qui a la capacité de prendre des entrées au format texte ainsi qu’au format image. La société affirme que le GPT-4 figure parmi les 10 % des meilleurs candidats aux concours aux États-Unis.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT