MIT a formé une IA en utilisant des légendes morbides de Reddit, et il est devenu un psychopathe

MIT a formé une IA en utilisant des légendes morbides de Reddit, et il est devenu un psychopathe

MIT La science-fiction nous a donné beaucoup de A.I. malveillants emblématiques. personnages. Cependant, ce sont souvent des chiffres comme Terminator De T-800 ou Extraterrestre Ash qui commettent un meurtre sans émotion pour poursuivre un but final. Ceux qui présentent un comportement paranoïaque plus déséquilibré, comme 2001: Une Odyssée de l’Espace HAL 9000, le font souvent en raison d’une erreur dans leur programmation, plutôt que par le biais du design.
C’est ce qui rend le projet “Norman” du MIT si intrigant. Nommé après Psycho ‘S Norman Bates, c’est une intelligence artificielle nouvellement créée comme le ” premier psychopathe au monde A.I. “Montré aléatoire tests inkblot généré, il offre des interprétations troublantes comme” homme abattu devant sa femme qui crie “ou” l’homme est tiré dans la machine à pâte. “Qu’est-ce qui l’a fait avoir cette vision terrible du monde? Accès à Reddit, bien sûr.
Norman a été formé sur les légendes d’image de l’infâme subreddit r / watchpeopledie, dédié à la documentation des cas réels de la mort. En raison de préoccupations éthiques et techniques, ainsi que du contenu graphique des vidéos qu’il contient, le A.I. a été seulement donné des légendes décrivant les images. Cependant, comme il n’a observé que des légendes d’images horrifiantes, il voit la mort dans l’image suivante qu’il regarde. Pensez-y un peu comme si vous disiez comment, pour quelqu’un avec un marteau, chaque problème ressemble à un clou. Sauf qu’au lieu de clous, il voit des gens battus à mort avec des marteaux.
MIT Si vous vous demandez pourquoi cette idée serait proche d’une bonne idée, c’est parce qu’elle vise à illustrer un problème concernant les ensembles de données biaisés. Essentiellement, l’idée est que apprentissage automatique fonctionne en analysant de vastes gisements de données. Alimentez les données biaisées et vous obtenez des algorithmes qui crachent les mauvaises réponses – que ce soit résultats systématiquement racistes ou bien, ce genre de chose.
«Notre groupe publie actuellement un nouveau projet pour lutter contre les préjugés et la discrimination basés sur l’apprentissage automatique», ont déclaré les chercheurs à Digital Trends.
Dans une autre direction de recherche future possible, ils sont intéressés par l’expansion de l’aspect inkblot du projet pour utiliser l’exploration de données pour voir s’il y a une explication de pourquoi les gens voient des choses différentes dans les tests de tache d’encre. Jusqu’à présent, ils ont recueilli plus de 200 000 réponses d’utilisateurs. “Nous espérons analyser ces données pour voir quel genre de clusters ces réponses créent”, ont-ils déclaré. “Par exemple, y a-t-il des groupes spécifiques de personnes qui réagissent différemment aux taches d’encre?” (Et ces gens sont-ils par hasard des visiteurs réguliers de la même façon que Norman?)
Pour être honnête, nous sommes simplement soulagés d’apprendre qu’aucun d’entre eux ne prévoit appliquer les leçons de Norman pour, par exemple, rendre la prochaine génération de Roomba plus efficace. Un aspirateur joyeux assassiner sonne comme une très mauvaise idée!

Leave a comment

Send a Comment

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.