Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Sommaire
Le Centre pour la Résilience à Long Terme (CLTR) lance un appel pressant pour la mise en place d’un système de signalement des incidents afin de combler les lacunes existantes dans les plans de réglementation de l’intelligence artificielle (IA). En se basant sur une analyse détaillée des incidents passés liés à la sécurité de l’IA, le CLTR exprime des préoccupations croissantes quant à la multiplication potentielle de ces incidents à mesure que l’IA s’intègre davantage dans la société. Historiquement, les secteurs tels que l’aviation et la médecine disposent de régimes de signalement bien établis, ce qui a permis de gérer efficacement les risques et de maintenir des normes de sécurité élevées. Le CLTR plaide pour qu’un système similaire soit adopté pour l’IA, avec le soutien d’experts et de gouvernements influents comme ceux des États-Unis, de la Chine et de l’Union Européenne.
Le système proposé par le CLTR vise plusieurs objectifs concrets pour garantir une régulation efficace et responsable de l’IA. Tout d’abord, il s’agirait de surveiller les risques réels associés à la sécurité de l’IA dans un contexte pratique. Cela inclut la coordination des réponses aux incidents, l’investigation des causes profondes, et l’identification précoce des signaux d’alarme susceptibles de causer des dommages à grande échelle. Actuellement, au Royaume-Uni, l’absence de cadre de signalement efficace pour les incidents liés à l’IA présente des risques majeurs. De nombreux incidents critiques demeurent non signalés, tels que ceux impliquant des modèles de base, l’utilisation de l’IA par le gouvernement, les abus de l’IA, et les dommages causés par des compagnons d’IA, des tuteurs ou des thérapeutes.
Le CLTR recommande plusieurs mesures immédiates au gouvernement britannique pour pallier ces lacunes. La première étape cruciale consiste à établir un système gouvernemental de signalement des incidents. En étroite collaboration avec des régulateurs et des experts, il est indispensable de cerner les manques actuels et de renforcer les capacités du Département pour la Science, l’Innovation et la Technologie (DSIT) pour surveiller, enquêter et répondre aux incidents. Veera Siivonen, Directrice Commerciale et Partenaire chez Saidot, souligne l’importance de la précision dans la gestion de l’équilibre entre réglementation et innovation, afin de valoriser le potentiel économique de l’IA tout en assurant des bénéfices pour la société, la protection des processus démocratiques et la confiance du public.
Pour le prochain gouvernement britannique, la mise en œuvre d’un système centralisé de signalement des incidents liés à l’utilisation abusive et aux défaillances de l’IA est perçue comme un premier pas vital. Cette initiative permettra de concilier développement technologique et innovation tout en garantissant la sécurité et la confiance du public. Alors que les technologies de l’IA continuent de progresser et de se répandre dans la société, un système robuste de signalement des incidents est essentiel pour atténuer les risques et assurer un développement et un déploiement sécurisés des technologies de l’IA. Les actions préconisées visent non seulement à améliorer les services publics de manière responsable mais aussi à garantir une couverture efficace des incidents prioritaires et à développer l’infrastructure nécessaire pour la collecte et la réponse aux rapports d’incidents liés à l’IA.
En conclusion, la mise en œuvre d’un système de signalement des incidents n’est pas seulement une étape cruciale pour une gouvernance efficace de l’IA, mais aussi un élément clé pour exploiter pleinement le potentiel économique de cette technologie. Elle permettra de protéger les processus démocratiques, de maintenir la confiance du public tout en offrant des avantages substantiels et durables à la société. Les propositions du CLTR offrent une feuille de route claire pour le gouvernement britannique afin de garantir un avenir sûr et innovant pour l’intelligence artificielle.