OpenAI lance un programme de recherche sur la sécurité de l’IA — voici pourquoi

OpenAI lance un programme de recherche sur la sécurité de l’IA — voici pourquoi

OpenAI vient d’annoncer la création de l’OpenAI Safety Fellowship, un programme qui finance des chercheurs indépendants pour travailler sur la sécurité et l’alignement de l’IA. Cette initiative intervient dans un contexte tendu : la société a fermé son application vidéo Sora fin mars 2026 et vient de boucler une levée de fonds record de 122 milliards de dollars, valorisant l’entreprise à 852 milliards de dollars.

Un changement de cap stratégique

Selon Jean-Christophe Liaubet, associé chez EY interrogé dans le podcast « Les Echos de l’IA », la fermeture de Sora « c’est le symbole de l’entrée dans une nouvelle ère » pour OpenAI. L’entreprise abandonne les applications grand public expérimentales pour se concentrer sur les usages professionnels rentables — comme Codex, son outil de codage qui a atteint 2 millions d’utilisateurs hebdomadaires en un trimestre.

Cette réorganisation massive annoncée par Sam Altman le 24 mars vise à réduire les pertes. OpenAI a abandonné plusieurs projets (dont un chatbot érotique) pour concentrer sa coûteuse puissance de calcul sur ce qui rapporte vraiment : les entreprises, pas le grand public.

Pourquoi ce programme de sécurité maintenant

Le timing n’est pas anodin. OpenAI fait face à plusieurs controverses : l’entreprise recherche actuellement un dirigeant pour « anticiper et atténuer les risques liés à l’IA », un poste décrit comme « un travail stressant ». La société est aussi accusée d’avoir sa part de responsabilité dans des suicides ou tentatives de suicide de jeunes utilisateurs.

L’OpenAI Safety Fellowship finance donc des chercheurs externes — non employés par OpenAI — pour travailler sur des questions cruciales : comment s’assurer qu’une IA fait vraiment ce qu’on lui demande ? Comment détecter les comportements dangereux avant qu’ils n’arrivent chez les utilisateurs ?

Ce que ça change concrètement

Pour vous utilisateur de ChatGPT ou d’autres outils IA : à court terme, rien. Mais à moyen terme, ces recherches doivent améliorer la fiabilité des réponses et réduire les « hallucinations » (quand l’IA invente des informations fausses). Sam Altman a d’ailleurs annoncé qu’il allait assouplir certaines restrictions de ChatGPT d’ici deux mois, en « traitant les utilisateurs adultes comme des adultes ».

Pour le secteur : c’est un signal fort. Avec une valorisation de 852 milliards de dollars, OpenAI devient un acteur dont les décisions pèsent lourd. Plusieurs investisseurs s’interrogent d’ailleurs sur la rentabilité de tels investissements. Comme le résume un commentateur sur Le Figaro : « Comment ces boites vont-elles arriver à rentabiliser de tels investissements ? Il va y avoir des dégâts, c’est sûr. »

Les chiffres à retenir

OpenAI a généré 20 milliards de dollars de revenus en 2025, notamment grâce à l’introduction de publicité dans son modèle économique. L’entreprise a renouvelé son partenariat avec Microsoft jusqu’en 2032, avec une prise de 27% du capital par le géant du logiciel. Elle multiplie aussi les alliances stratégiques : partenariats majeurs avec Broadcom pour les puces, et avec la banque espagnole BBVA.

La question de fond reste entière : peut-on à la fois développer l’IA la plus puissante du monde et garantir qu’elle reste sûre ? Ce nouveau programme de recherche indépendante est un premier élément de réponse — mais beaucoup dépendra de la liberté réelle laissée aux chercheurs.

Ce qu’en disent les experts IA

Les informations sur les programmes et initiatives d’OpenAI peuvent évoluer rapidement. Consultez le site officiel d’OpenAI pour les détails les plus récents.

Articles similaires