Nouvelles Du Monde

Qui est le plus inhumain entre l’IA et les humains à Gaza ?

Qui est le plus inhumain entre l’IA et les humains à Gaza ?

2024-04-09 18:16:59

Un énième circule depuis quelques jours appel à arrêter le développement de l’intelligence artificielle car “dans le pire des cas – lit-on dans le manifeste du Japon – la démocratie et l’ordre social pourraient s’effondrer, provoquant des guerres”. Vraiment. Je ne vois pas d’outil comme Chat GPT qui fasse tomber les démocraties, qui pourtant ne me semblent pas en excellente santé avant même le lancement du produit Open AI. Quant aux guerres, il y en a eu et il y en a encore aujourd’hui et malheureusement l’intelligence artificielle n’est pas la cause mais seulement un outil entre les mains des êtres humains : c’est un mécanisme et non un organisme, pour reprendre une distinction du philosophe Maurizio Ferraris. À cet égard, il suffit de regarder ce qui vient d’être découvert et qui se passe à Gaza depuis six mois. Ce n’est pas le massacre de la population civile, cela était déjà connu, il suffit d’être sur Instagram pour le savoir. Je fais plutôt référence à l’utilisation de l’intelligence artificielle par les forces armées israéliennes.

Lire aussi  TOP 5 des téléphones les plus vendus en République tchèque. Le vôtre est-il sur la liste ?

Deux sites d’information israéliens – donc non palestiniens, non liés au Hamas, mais exactement le contraire – rapportent qu’Israël utilise un logiciel (Lavender) capable de traiter rapidement d’énormes quantités de données pour générer des milliers de “cibles” potentielles pour des attaques militaires au milieu d’une guerre. Problème: dans 10 % des cas, ces objectifs sont erronés, patience. En pratique, Lavender utilise la reconnaissance faciale pour désigner comme cibles tous les miliciens présumés du Hamas, y compris ceux de bas rang, et sans aucun contrôle, le bombardement est autorisé en moins de vingt secondes, ce qui se fait souvent à l’aide d’un autre logiciel, Où est papa ?, littéralement, où est papa ? (mais comment penser à un nom pareil ?), qui favorise les attaques lorsque les miliciens présumés sont chez eux avec leurs femmes et leurs enfants, donc considérés comme des « dommages collatéraux » du conflit.

Selon l’enquête menée par des journalistes israéliens, il existe également un décompte du nombre de civils qui peuvent être tués pour tuer un présumé milicien du Hamas : jusqu’à 20 dans le cas d’un grade inférieur, jusqu’à 100 pour un commandant. Voilà en résumé l’histoire qui se déroule chaque jour depuis six mois dans l’indifférence de presque tout le monde : pensez-vous qu’il faille encore parler de la nécessité de prédire l’éthique dans les algorithmes ou plutôt chez l’être humain ?

Lire aussi  Les CK Wildcats organiseront un tournoi de basket-ball pour les enfants luttant contre le cancer du cerveau



#Qui #est #inhumain #entre #lIA #les #humains #Gaza
1712712938

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Un F16 s’est écrasé à Halkidiki, le pilote est sain et sauf

F-16 ©Eurokinissi ” )+(“arrêter\”> “).length); //déboguer contenttts2=document.querySelector(“.entry-content.single-post-content”).innerHTML.substring( 0, document.querySelector(“.entry-content.single-post-content “).innerHTML.indexOf( “” )); contenttts2=contenttts2.substring(contenttts2.indexOf( “fa-stop\”> ” )+(“arrêter\”> “).length);

ADVERTISEMENT