Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Sommaire
OpenAI, l’une des entreprises leaders dans le développement de l’intelligence artificielle, a récemment décidé de collaborer avec l’U.S. AI Safety Institute pour fournir un accès anticipé à son prochain modèle génératif majeur pour des tests de sécurité. Cette initiative vise à répondre aux préoccupations croissantes concernant la sécurité de l’IA. Elle s’inscrit dans la continuité des efforts déployés pour garantir que les innovations technologiques ne compromettent pas la sécurité des utilisateurs.
Cette décision marque un tournant important, d’autant plus que OpenAI avait précédemment dissous une unité de recherche en sécurité, ce qui avait conduit à la démission de chercheurs clés et suscité des critiques sur la priorisation des lancements de nouveaux produits au détriment de la sécurité. La nouvelle collaboration avec l’U.S. AI Safety Institute, sous l’égide du National Institute of Standards and Technology, permet à OpenAI de renforcer sa position en faveur de la sécurité de l’IA tout en bénéficiant de l’expertise de plusieurs autres grands acteurs de l’industrie tels que Google, Microsoft, Meta, Apple, Amazon, et Nvidia.
Face aux critiques, OpenAI a réaffirmé son engagement envers la sécurité en prenant plusieurs mesures significatives. La société a promis d’éliminer les clauses restrictives de non-dénigrement, de mettre en place une commission de sécurité et de consacrer 20 % de sa capacité de calcul à la recherche en sécurité. Cependant, certains observateurs restent sceptiques et estiment que ces mesures ne suffisent pas.
La commission de sécurité, bien que composée en grande partie de membres internes de la société, est l’un des efforts déployés par OpenAI pour montrer sa volonté de renforcer la sécurité de l’IA. La société est également sous la surveillance de cinq sénateurs américains qui examinent de près ses politiques en matière de sécurité de l’IA. Cette pression politique montre l’importance accrue de la régulation et du contrôle des avancées technologiques dans ce domaine.
La collaboration d’OpenAI avec l’U.S. AI Safety Institute survient alors que la société soutient la Future of Innovation Act, une loi perçue par certains comme une tentative de capture ou d’influence réglementaire au niveau fédéral. Sam Altman, CEO d’OpenAI, joue un rôle actif au sein de la Safety and Security Board de l’U.S. Department of Homeland Security, montrant ainsi l’engagement continu de la société dans les initiatives de sécurité de l’IA.
L’U.S. AI Safety Institute, qui collabore avec plusieurs entreprises majeures, se concentre sur le développement de directives pour l’évaluation des capacités, la gestion des risques, et la sécurité. Cela inclut également le marquage des contenus synthétiques pour améliorer les normes de sécurité de l’IA. L’objectif de ces efforts est d’élaborer des lignes directrices robustes pour le red-teaming de l’IA et d’autres aspects critiques de la sécurité.
Il est évident que la collaboration entre OpenAI et l’U.S. AI Safety Institute reflète une volonté de l’industrie de répondre aux préoccupations gouvernementales et de s’assurer que les technologies d’IA sont déployées de manière sûre et sécurisée. L’augmentation significative des dépenses de lobbying fédéral par OpenAI indique son intention de s’engager de manière proactive avec les décideurs politiques et les régulateurs pour influencer les réglementations et les normes de sécurité de l’IA.
En fin de compte, les efforts d’OpenAI pour renforcer la sécurité de l’IA, bien qu’encore imparfaits selon certains critiques, montrent une prise de conscience essentielle des risques liés à l’innovation technologique. La route vers une IA sécurisée et responsable est encore longue, mais les initiatives actuelles représentent un pas dans la bonne direction, alignant les objectifs de l’industrie et des régulateurs pour un avenir numérique plus sûr.