OpenAI révolutionne l’évaluation des scénarios apocalyptiques de l’IA grâce à une déclaration époustouflante qui capte votre attention !

Sommaire :

OpenAI crée une nouvelle équipe pour évaluer les risques associés à l’intelligence artificielle

Ce nouveau département au sein d’OpenAI se penchera sur les dangers associés à l’intelligence artificielle, y compris les menaces nucléaires.

OpenAI forme actuellement une nouvelle équipe pour évaluer les “risques catastrophiques” associés à l’IA, selon ses propres mots. Dans une publication sur son blog (en anglais) la semaine dernière, la société de développement d’intelligence artificielle indique que son équipe de préparation (Preparedness team) va “suivre, évaluer, prévoir et protéger” contre les scénarios catastrophes que pourraient causer l’IA, y compris les menaces nucléaires.

OpenAI veut montrer qu’elle prend au sérieux l’ensemble des risques de sécurité liés à l’IA…

Les inquiétudes autour de l’IA ne sont pas nouvelles, mais se sont amplifiées depuis un an avec l’ouverture des chatbots et des grands modèles de langage à un plus large public. Les problématiques soulevées vont des questions de droit d’auteur à des scénarios beaucoup plus sombres.

L’équipe mise en place par OpenAI se penchera sur les risques en matière de cybersécurité, les menaces chimiques, biologiques, radiologiques et nucléaires, ou encore la “réplication et l’adaptation autonome”, c’est-à-dire le fait pour une IA de se répliquer elle-même.

Un robot représentant l'IA parmi d'autres robots

Dans sa publication, OpenAI note : “Nous pensons que les modèles IA d’avant-garde, qui dépasseront les capacités actuelles des modèles existants, les plus avancés, ont le potentiel de profiter à l’ensemble de l’humanité. Mais, ils posent également des risques de plus en plus graves”.

Le professeur Aleksander Madry, actuellement en congé de son poste de directeur du Center for Deployable Machine Learning du MIT, dirigera cette nouvelle équipe. OpenAI précise également que l’équipe de préparation développera et maintiendra une “une politique de développement tenant compte des risques”, qui guidera les mesures prises par la société pour évaluer et contrôler ses modèles IA.

En savoir plus  Protégez-vous de l'impensable : les astuces éprouvées pour éviter les arnaques vous seront révélées ici !

Le patron d’OpenAI, Sam Altman, avait déjà mis en garde contre les scénarios catastrophes liés à l’IA. Au mois de mai dernier, le PDG de la société et d’autres acteurs du secteur de l’intelligence artificielle, dont d’éminents chercheurs, ont publié une déclaration de 22 mots selon laquelle : “L’atténuation du risque d’extinction dû à l’IA devrait être une priorité mondiale”. Lors d’une interview en mai dernier, Sam Altman avait également suggéré que les gouvernements devraient traiter l’IA “aussi sérieusement” que les armes nucléaires.

Aymeric du blog Les meilleures comparatifs et avis
Les derniers articles par Aymeric du blog Les meilleures comparatifs et avis (tout voir)
En savoir plus  James Cameron frappe fort avec la Version 4K Remastérisée de The Abyss : une révélation à couper le souffle qui ne laissera personne indifférent !