Nouvelles Du Monde

Comment éviter de tomber dans le piège des appels hyperréalistes qui utilisent l’IA pour imiter la voix des connaissances et commettre des arnaques

Comment éviter de tomber dans le piège des appels hyperréalistes qui utilisent l’IA pour imiter la voix des connaissances et commettre des arnaques

MADRID, 25 mars (Portaltic/EP) –

Il y a de plus en plus de cas d’utilisateurs qui reçoivent des informations présumées appels téléphoniques par un un être cher ou un ami demandant votre aide et votre argent pour sortir d’une situation d’urgence, et face à l’incertitude, la première chose à laquelle ils pensent est d’aider au lieu de dire qu’ils sont victimes d’une arnaque qui utilise l’intelligence artificielle (IA) pour imiter la voix des proches et obtenir de l’argent.

Las escroqueries par téléphone ils sont un méthode très récurrente pour les acteurs malveillants lorsqu’ils tentent d’arnaquer les utilisateurs, soit pour obtenir de l’argent, soit pour voler des données pertinentes telles que des mots de passe ou des clés bancaires.

Las Les techniques de ces escroqueries téléphoniques évoluent constamment plus en essayant d’éviter les barrières de protection qui s’interposent entre les criminels et leurs objectifs. Surtout, ajouter à son modus operandi les nouvelles fonctions offertes par la technologie, comme l’IA générative.

Les escrocs utilisent programmes de génération de voix avec technologie d’intelligence artificielle pour, par des appels téléphoniques, poser comme personnes proches des victimes et essayer d’obtenir de l’argent.

Lors de l’appel, les acteurs malveillants, se faisant passer pour un être cher, racontent qu’ils sont dans un situation dangereuse et demander de toute urgence de l’aide et de l’argent aux victimes. Par exemple, les escrocs peuvent fairese faisant passer pour un petit-fils à court d’argent en voyage et a besoin de toute urgence que ses grands-parents lui prêtent une certaine somme pour pouvoir rentrer chez lui.

Lire aussi  L'Audi Q6 E-Tron rivalise avec Tesla Y

Normalement, les escrocs se cachent derrière l’imitation de parents ou de personnes très proches de la victime, comme des enfants ou des frères et sœurs, de sorte qu’il y a moins de résistance à donner de l’argent ou qu’il y a moins de doute sur la légitimité de ces appels.

Ainsi, bien que pendant l’appel la victime soit surprise et qu’il y ait des détails qu’elle ne peut pas comprendre sur l’histoire, ces types d’escrocs utilisent l’élément définitif pour convaincre la victime qu’il s’agit d’un proche et devrait aider : la voix. Pour cela, le les escrocs utilisent des programmes de génération de parole basés sur l’IA.

Selon les données de la Commission fédérale du commerce (FTC) collecté par Le Washington Postles escroqueries par téléphone ont causé la perte de jusqu’à 11 millions de dollars (environ 10,2 millions d’euros) au cours de l’année 2022ce qui fait des escroqueries par imposteur le deuxième type le plus courant dans États Unis.

Ces Programmes d’IA analyser la voix de la personne qu’ils veulent imiter et recherchez les motifs qui cimentent les nuances et le son unique de la personne en question lorsqu’elle parle. C’est-à-dire que les programmes s’entraîner pour imitez le ton, l’accent et même l’âge, puis recréez-les.

De plus, ces programmes sont capables d’apprendre à imiter des voix en quelques secondes. Pour ce faire, il suffit ils ont besoin d’un petit échantillon audio comme base. Par exemple, dans certains programmes utilisez juste 30 secondes de celui qui parle pour l’imiter.

Ces audios peuvent être obtenus à partir de toute vidéo dans laquelle la personne que vous souhaitez imiter parlepar exemple, dans des publications personnelles sur des réseaux sociaux comme Instagram ou TikTok, ou encore dans des vidéos YouTube ou des podcasts.

Lire aussi  une page OnlyFans est créée

L’essor de cette méthode d’escroquerie peut être basé sur le fait qu’en plus de son efficacité, l’imitation de la voix est quelque peu simple et pas cher. Par exemple, l’une des entreprises qui développent ces “logiciels” est ElevenLabs et, selon les prestations souhaitées, votre service peut être gratuit ou payant entre 5 dollars (4,65 euros) et 330 dollars par mois (279 euros).

Cependant, il y a d’autres entreprises qui développent également ce type de technologie comment sont Murf.ai ; Jouer.ht; y Représentant, dont le prix varie entre 20 et 30 dollars par mois (environ 18 ou 27 euros par mois). Par exemple, dans le cas de Respeecher, incluez un fonction pour convertir la voix en temps réel. Autrement dit, lorsque l’utilisateur parle, l’IA change instantanément la hauteur de la voix imitée.

COMMENT ÉVITER CES ARNAQUES

Avant que ces programmes avancés n’existent les utilisateurs d’imitation vocale pourraient regarder certains signaux pour identifier si un appel était passé par un programme de génération de voix par intelligence artificielle.

Par exemple, comme le souligne Marc Rivero, analyste en cybersécurité chez Kaspersky, l’un de ces signes était langage forcé ou “robotisé”” de la voix utilisée par le programme. Un autre signal pourrait être une courte pause après une intervention de l’utilisateur, puisque le système devait traiter l’information.

Selon Rivero, il a également été possible d’identifier les “manque d’interaction humaine typique”, comme la capacité de répondre à des questions imprévues.

Lire aussi  Un trou noir supermassif laisse une traînée d'étoiles de 200 000 années-lumière selon une découverte de la NASA.

Face à ces nouvelles arnaques, dans lesquelles sont utilisés des programmes d’IA imitant la voix souhaitée, les directeur technique de Check Point Software pour l’Espagne et le Portugal, Eusebio Nieva, suggère de prendre quelques précautions.

S’il reconnaît qu’il est de plus en plus difficile d’effectuer des vérifications « en raison du degré de spécialisation et de compétence de ces programmes d’IA », il faut supposer « un méfiance philosophie» à l’égard de certains appels, notamment s’ils proviennent d’une source inconnue et impliquent des transactions monétaires, « même si la voix est identifiable ».

En ce sens, comme l’explique Eusebio Nieva, en cas de réception d’un appel de ces caractéristiques, dès que l’utilisateur identifier un léger soupçondoit “établir une sorte d’identification pour déterminer sans aucun doute l’identité du locuteur à l’autre bout”.

Certaines options proposées par Nieva sont à essayer parler de quelque chose que seule la personne réelle connaissait o poser “des petits pièges” pendant la conversation indiquant qu’il y a une sorte de tentative de tromperie.

Suite à ce fil, une autre façon de sécuriser ces appels est “établir un protocole de double authentification de l’appelant pour l’éviter”. Par exemple, demander de rappeler l’appelant pour déterminer qu’il s’agit bien d’un être connu.

Ces suggestions sont également applicable aux environnements de travail, surtout, “sachant que l’objet de l’arnaque sera un quelconque administratif ou responsable du service financier”, précise Nieva.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT