Nouvelles Du Monde

Parler à un Japonais et l’écouter en espagnol : les machines gagnent déjà du terrain dans l’interprétation des langues | Technologie

Parler à un Japonais et l’écouter en espagnol : les machines gagnent déjà du terrain dans l’interprétation des langues |  Technologie

2023-09-02 06:20:00

Jusqu’à récemment, cela aurait ressemblé à de la science-fiction : se connecter lors d’un appel vidéo où sur l’écran se trouve un individu qui vit à l’autre bout du monde. Cette personne parle en japonais, mais vous, grâce à vos écouteurs, entendez ses paroles en espagnol. Il s’agit d’une situation similaire à celle des interprètes, qui traduisent vers différentes langues en personne ou en ligne. Cependant, la grande différence est qu’ici, il n’y a pas d’humain impliqué, mais une intelligence artificielle (IA) qui traduit et délivre simultanément le discours dans une autre langue.

Kudo, une entreprise qui s’est développée sur le marché en connectant des interprètes de langues avec les entreprises clientes, a fait un pas en avant en incluant une technologie qui effectue des traductions simultanées dans les conférences en ligne. Et il ne s’agit pas de traduire des phrases écrites, mais d’effectuer des traductions vocales, permettant aux participants à la vidéoconférence d’écouter la traduction comme s’ils avaient un interprète présent.

Dans une démonstration réalisée pour EL PAÍS, Tzachi Levy, chef de produit de Kudo, parle en anglais tandis que son discours est entendu presque en temps réel en espagnol. Même si la voix semble un peu robotique et qu’il y a un léger retard par rapport à une traduction humaine, le résultat n’en reste pas moins étonnant. Alors qu’une performance humaine a généralement 5 à 7 secondes de retard, l’expérience artificielle a environ 10 secondes.

L’entreprise compte déjà 20 entreprises clientes utilisant cette fonctionnalité, qui continue d’être améliorée. Cet outil fonctionne sur la propre plateforme de visioconférence de Kudo, mais il est également intégré à Microsoft Teams, très populaire dans le monde de l’entreprise.

Lire aussi  Ne soyez pas le parent qui écrit les textes des enfants (oui, c'est une chose)

Chez Kudo, ils soulignent que dans les situations où une précision de traduction à 100 % est requise, l’interprète humain sera toujours la meilleure option. Le responsable donne comme exemple les sessions du Parlement européen : “Il est probable que des systèmes artificiels ne seront pas utilisés, mais dans les réunions plus petites, où il n’y a pas d’interprètes disponibles à ce moment-là, cette solution peut être efficace.”

Levy souligne que les progrès de l’IA sont inévitables et que des progrès initialement estimés prendre 5 à 10 ans ont été réalisés en quelques mois. Le domaine évolue si rapidement que, estime-t-il, d’ici l’année prochaine, l’IA pourrait réaliser avec précision des traductions simultanées dans 90 % des situations courantes.

Intelligence artificielle et humaine

En juin de cette année, Filaire a fait une comparaison entre la technologie Kudo et interprétation par des experts. Les humains ont obtenu de bien meilleurs résultats par rapport à l’outil IA, principalement en ce qui concerne le contexte des discours. Claudio Fantinuoli, directeur technologique de Kudo et créateur de l’outil de traduction automatique, assure à EL PAÍS que le modèle évalué par les médias américains il y a trois mois a déjà été amélioré de 25 %. La prochaine étape du développement consiste à intégrer l’intelligence artificielle générative pour rendre l’expérience utilisateur plus agréable : la voix est plus fluide, plus humaine et capte l’intonation.

Lire aussi  Une comète aurait-elle provoqué la révolution agricole au Croissant fertile il y a 10 000 ans ?

L’un des principaux défis, selon Fantinuoli, est d’amener l’IA à interpréter le contexte du récit, ce qu’un humain comprend comme étant entre les lignes. Ce défi est toujours de taille, mais il est amélioré « avec de grands modèles de langage », comme celui derrière les chatbots conversationnels.

Fantinuoli, qui est également professeur d’université et enseigne à de jeunes étudiants qui aspirent à devenir des artistes professionnels à l’avenir, affirme qu’il « ne voit aucun conflit » entre l’IA et la formation humaine. De plus, cela garantit que le travail d’un expert sera toujours de meilleure qualité. « J’essaie de leur faire comprendre que les robots sont une réalité sur le marché et qu’ils doivent être au top. L’IA les pousse à être de très bons interprètes », nuance-t-il.

Une voix, plusieurs langues

Une possibilité envisagée dans un avenir proche consiste à ajouter la propre voix de l’orateur dans la traduction. Fantinuoli affirme que techniquement, cela est déjà réalisable et que cela ne prendra que quelques mois pour compléter l’outil de son entreprise. D’autres sociétés ont déjà testé la possibilité d’utiliser une seule voix pour lire du contenu dans différentes langues, mais pas simultanément. C’est le cas de la plateforme OnzeLabsqui donne vie au contenu dans 30 langues différentes avec la même voix.

Le processus est simple : il vous suffit de télécharger un fichier audio d’une durée d’une minute avec le discours que vous souhaitez reproduire. À partir de ce fichier, l’outil lit à haute voix le texte souhaité, soit dans la même langue d’origine, soit dans d’autres langues disponibles. La plateforme offre la possibilité d’effectuer des ajustements personnalisés, d’affiner la clarté de lecture ou même d’exagérer le style de la voix en fonction des préférences. Le feedback imite non seulement la voix, mais capture et reflète des nuances distinctives telles que la hauteur, le rythme, l’accent et l’intonation.

Lire aussi  Destiny 2: L'achèvement du premier raid mondial de Lightfall revendiqué par Shocking Underdog

Récemment, Meta a lancé un modèle de traduction multimodal, qui peut effectuer des traductions parole-texte, parole-parole, texte-parole et texte-texte dans jusqu’à 100 langues, en fonction de la tâche. L’une des promesses s’adresse aux locuteurs polyglottes, ceux qui mélangent deux ou trois langues dans une seule phrase. L’entreprise de Mark Zuckerberg affirme que ce modèle est capable de discerner les différentes langues en jeu et de réaliser les traductions correspondantes. S’il est vrai qu’il y a encore quelques petits bugs en ce qui concerne cette fonctionnalité, cela fonctionne plutôt bien lorsque la phrase est exprimée dans une seule langue. L’outil est disponible gratuitement dans sa version Beta.

Claudio Fantinuoli trouve le nouvel outil de Meta étonnant et le compare au « ChatGPT du discours parlé ». « Ce qu’ils font, c’est assembler tous les modèles, qui peuvent effectuer plusieurs tâches en même temps. C’est l’avenir”, conclut-il.

Vous pouvez suivre LE PAYS Technologie dans Facebook oui Twitter ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.




#Parler #Japonais #lécouter #espagnol #les #machines #gagnent #déjà #terrain #dans #linterprétation #des #langues #Technologie
1693676476

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT