Nouvelles Du Monde

Anthropic améliore son jeu de chatbot IA avec Claude 3, rival de ChatGPT et Gemini

Anthropic améliore son jeu de chatbot IA avec Claude 3, rival de ChatGPT et Gemini

La startup d’IA Anthropic a déclaré lundi que la dernière version de sa famille de modèles d’IA Claude, Claude 3, présente une « compréhension semblable à celle d’un humain », une affirmation audacieuse, mais pas tout à fait sans précédent, de la part d’un fabricant de chatbots d’IA génératifs.

Par rapport aux versions précédentes, la famille Claude 3 peut gérer des requêtes plus complexes avec une plus grande précision et une meilleure compréhension contextuelle, a déclaré Anthropic. La dernière famille de modèles est également meilleure en matière d’analyse et de prévision ; création de contenu ; génération de code ; et converser dans des langues comme l’espagnol, le japonais et le français, a indiqué la société. Cependant, il convient de noter que même si les chatbots peuvent comprendre et prédire le contenu, ils ne comprennent pas vraiment le sens des mots comme nous.

Par ordre croissant de puissance, les trois modèles de la famille Claude 3 sont : Claude 3 Haiku, Claude 3 Sonnet et Claude 3 Opus.

Le rythme des mises à jour et des versions parmi les entreprises d’IA générative s’est accéléré depuis la sortie du modèle de synthèse texte-image Dall-E en 2021. En février, Google a publié la dernière version de son modèle, Gemini 1.0 Ultra, et a dévoilé Gemini 1.5 Pro. . Le fabricant de ChatGPT, OpenAI, a lancé son modèle GPT-4 Turbo en novembre. Microsoft a annoncé son « compagnon IA », Copilot, en septembre. Toutes ces entreprises cherchent à s’imposer sur un marché de l’IA générative devrait atteindre 1,3 billion de dollars d’ici 2032.

Lire aussi  Grâce à la "machine à marquer"... Manchester City continue de courir après Arsenal

Par exemple, par rapport à Claude 2.1, sorti en novembre, Opus a montré une précision multipliée par deux sur les questions ouvertes, a déclaré Anthropic. De plus, la société permettra bientôt les citations, ce qui permettra aux utilisateurs de Claude 3 de vérifier plus facilement les réponses dans les documents de référence.

Les modèles Claude 3 sont également « nettement moins susceptibles » de refuser de répondre à des invites inoffensives que leurs prédécesseurs, car ils ont « une compréhension plus nuancée des demandes » et « reconnaissent le préjudice réel », a déclaré Anthropic. Cela signifie que les utilisateurs qui effectuent des requêtes qui ne violent aucune directive sont plus susceptibles d’obtenir des réponses des modèles Claude 3.

Depuis lundi, Sonnet est disponible via claude.ai et Opus est accessible aux abonnés Claude Pro.

Anthropic n’a pas partagé de date de sortie pour Haiku, disant seulement qu’il sera “bientôt disponible”.

Les modèles Claude 3 ont une fenêtre contextuelle de 200 000 jetons. Un jeton équivaut à quatre caractères, soit environ les trois quarts d’un mot en anglais.

Pensez-y de cette façon : Guerre et Paix de Léon Tolstoï compte 587 287 mots. Cela représente environ 440 465 jetons. Cela signifie que Claude 3 peut mémoriser environ la moitié du livre par session.

Lire aussi  Le personnel militaire des forces armées ukrainiennes suit une formation en Moldavie et en Géorgie. Nouvelles. Actualités. Actualité du 6 janvier 2024. Actualité du 6 janvier 2024. Actualités du monde et de la Russie – EADaily

Cependant, Anthropic a déclaré que le modèle est capable d’accepter des entrées de plus d’un million de jetons et que la société “pourrait le mettre à la disposition de certains clients ayant besoin d’une puissance de traitement améliorée”.

À titre de comparaison, les derniers modèles Gemini de Google peuvent traiter jusqu’à 1 million de jetons, tandis que les modèles GPT-4 ont des fenêtres contextuelles d’environ 8 000 à 128 000 jetons.

Haïku contre Sonnet contre Opus

Alors qu’Anthropic recommande Haiku pour les interactions avec les clients, la modération du contenu et les tâches telles que la gestion des stocks, Sonnet, affirme-t-il, “excelle dans les tâches exigeant des réponses rapides, comme la récupération de connaissances ou l’automatisation des ventes”.

Opus, d’autre part, peut planifier et exécuter des actions complexes à travers des API et des bases de données et effectuer des tâches de recherche et développement telles que le brainstorming et la génération d’hypothèses et même la découverte de médicaments, ainsi qu’une analyse avancée de tableaux et de graphiques, de données financières et de tendances du marché, selon l’entreprise.

Les modèles Claude 3 peuvent traiter des formats visuels tels que des photos, des tableaux et des graphiques “à égalité avec les autres modèles leaders”, a déclaré Anthropic.

Claude 3 présente également moins de préjugés que ses prédécesseurs, selon le Bias Benchmark for Question Answering, une collection de séries de questions rédigées par des universitaires de l’Université de New York qui évalue les modèles pour les préjugés sociaux contre les personnes appartenant à des classes protégées.

Lire aussi  La Norvège prend la présidence du Conseil de l'Arctique

Anthropic a également indiqué qu’elle disposait de plusieurs équipes axées sur les risques, notamment la désinformation, les contenus pédopornographiques, l’ingérence électorale et les « compétences de réplication autonome ». Cela signifie qu’avec Claude 3, nous serons peut-être moins susceptibles de voir le genre de réponses troublantes que les chatbots sont connus pour fournir de temps en temps.

Les évaluations de l’équipe rouge, ou celles qui recherchent les vulnérabilités de l’IA, ont montré que les modèles « présentent un potentiel négligeable de risque catastrophique à l’heure actuelle », indique un article du blog Anthropic.

“Alors que nous repoussons les limites des capacités de l’IA, nous sommes également déterminés à garantir que nos garde-corps de sécurité suivent le rythme de ces progrès en matière de performances”, ajoute le message. “Notre hypothèse est qu’être à la frontière du développement de l’IA est le moyen le plus efficace d’orienter sa trajectoire vers des résultats sociétaux positifs.”

Anthropic a annoncé son intention de “publier des mises à jour fréquentes” des modèles Claude 3 “au cours des prochains mois”.

Note de l’éditeur : CNET utilise un moteur d’IA pour créer certaines histoires. Pour en savoir plus, voir ce post.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT