Le développement rapide de l’intelligence artificielle (IA) entraîne une série de risques plus ou moins graves, que les entreprises et les gouvernements tentent actuellement d’identifier et de trouver des solutions. A ce propos, la société « OpenAI » a annoncé avoir créé une équipe qui étudiera et réduira les « risques catastrophiques » liés à l’IA.
OpenAI a déclaré que la nouvelle équipe « suivra, évaluera, prévoira et protégera » contre les défis potentiellement majeurs liés à l’IA, y compris les menaces nucléaires. L’entreprise explique que l’équipe s’efforcera d’atténuer les menaces « chimiques, biologiques, radiologiques » et autres. Parmi les autres risques qui feront l’objet d’une attention particulière figurent la capacité de l’IA à tromper les gens, ainsi que les cybermenaces.
La société estime que les modèles d’IA avancés, qui seront bien plus avancés que les modèles d’IA de pointe actuels, peuvent bénéficier à l’ensemble de l’humanité. Dans le même temps, il convient de garder à l’esprit qu’ils peuvent créer des risques plus importants, qu’il convient de reconnaître et de trouver une solution. OpenAI note que l’équipe développera et maintiendra également une politique décrivant ce que l’entreprise fait pour évaluer et surveiller les modèles d’IA.
Il convient de noter que Sam Altman, responsable d’OpenAI, a déjà averti que l’IA pouvait présenter des risques catastrophiques. Il a également suggéré que les gouvernements devraient traiter l’intelligence artificielle avec autant de sérieux que les armes nucléaires.
2023-10-29 10:00:00
1698605771
#OpenAI #formé #une #équipe #pour #étudier #les #risques #catastrophiques #lIA