Nouvelles Du Monde

Les chercheurs disent que les entreprises doivent réduire les risques liés à l’utilisation de l’IA

Les chercheurs disent que les entreprises doivent réduire les risques liés à l’utilisation de l’IA

Illustration de l’intelligence artificielle (IA) alias intelligence artificielle. (ANTARA/Pixabay)

Elshinta.com – Les chercheurs de Couchbase évaluent que les entreprises doivent réduire les risques liés à l’utilisation de l’intelligence artificielle ou Intelligence artificielle (IA) qui tend à être biaisé et peut réduire la qualité des produits fabriqués.

“Le défi est de savoir comment les entreprises peuvent réduire ces biais dans leurs offres de produits et éviter le risque d’introduire des modèles d’IA nuisibles dans la production”, a déclaré Aaron Schenider, ingénieur en solutions associé chez Couchbase, dans un communiqué ici jeudi.

Selon lui, l’une des utilisations de l’IA via ChatGPT consiste toujours à juger les humains en fonction du sexe et de la couleur de la peau. C’est pourquoi toute réponse donnée sera risquée, discriminatoire, incendiaire et préjudiciable à la réputation des entreprises qui utilisent réellement l’IA pour le bien.

Il a également assuré que, bien que ce ne soit pas la faute de l’IA et que cela réside uniquement dans l’apport que la technologie reçoit, les développeurs doivent arrêter les biais et les erreurs tôt.

Lire aussi  Offres quotidiennes : économisez 20 % sur les AirPods Pro de 2e génération, 730 $ de réduction sur les téléviseurs intelligents LG de 48 pouces, plus

“Cependant, cette énigme n’est en fait pas quelque chose de nouveau. Le biais de l’IA se produit lorsqu’un modèle d’IA affiche le biais de ses auteurs humains à travers un ensemble de données. Ce que vous donnez est ce que vous obtenez en retour”, a déclaré Aaron.

De telles conditions, a-t-il poursuivi, ont poussé les entreprises technologiques à réfléchir à deux fois avant de publier des modèles d’IA complexes, car cela signifierait remettre une boîte de Pandore imprévisible aux utilisateurs. La décision de l’entreprise pourrait également être considérée comme une manœuvre très risquée car elle n’a aucun contrôle sur la sortie de l’IA. Toute réponse non fiable et obscène portera gravement atteinte à la réputation de l’entreprise.

Par conséquent, pour que la technologie reste une force du bien, les utilisateurs doivent être habilités à créer des modèles d’IA impartiaux. Grâce à l’utilisation de solutions de traitement d’événements en temps réel, les chercheurs peuvent tirer parti de la logique métier définie par l’utilisateur pour supprimer automatiquement les informations indésirables des ensembles de données d’IA.

Lire aussi  Elon Musk dit que Twitter a un effectif d'environ 2 300 personnes

« Cette évolution nécessitera une solution cloud avec une architecture axée sur la mémoire qui offre des performances inégalées et rend les requêtes SQL++ rapides et très efficaces. Tous les projets bénéficieront également de la flexibilité et du potentiel d’une base de données cloud NoSQL », a-t-il déclaré.

En fin de compte, l’intelligence artificielle est basée sur des modèles d’apprentissage automatique, avec des modèles et des techniques bien documentés utilisés pour créer des systèmes prédictifs. Les systèmes d’intelligence artificielle comme ChatGPT et DALL-E doivent absorber de grandes quantités d’entrées d’Internet avant de pouvoir faire correspondre la relation entre le texte et la réponse. De plus, d’autres outils et modèles linguistiques doivent également être utilisés pour aider l’IA à prédire les mots utilisés dans chaque réponse.

Auparavant, une courte étude sur ChatGPT indiquait qu’OpenAI est bien conscient des biais de l’IA et ajoute instinctivement des limites à l’IA afin de pouvoir filtrer les commentaires offensants, racistes ou même sexistes. Ces restrictions sont maintenues aussi simples que possible pour empêcher ChatGPT de générer des réponses inappropriées. Une liste de mots-clés, d’expressions et de directives interdits est également mise en place pour empêcher le modèle d’IA de devenir erratique et d’utiliser des contenus interdits.

Lire aussi  La technologie des accélérateurs compacts réalise des progrès majeurs

<!–

/21622890900/ID_Elshinta.com_pc_article_mid2_300x250//336×280
var para = document.createElement("div");
para.setAttribute('id', 'div-gpt-ad-1581064148067-0');
para.setAttribute('class', 'mt-16 center');

var lengthpara = document.getElementById("beritaDetail").getElementsByTagName("p").length;
lengthpara = lengthpara – 2;
document.getElementById("beritaDetail").getElementsByTagName("p")[lengthpara].appendChild(para);
googletag.cmd.push(function() { googletag.display('div-gpt-ad-1581064148067-0'); });

–>

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT