Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Sommaire
Récemment, Microsoft a révélé une nouvelle technique de piratage d’intelligence artificielle baptisée « Skeleton Key ». Ce type d’attaque met en lumière les vulnérabilités des systèmes d’IA générative et la nécessité de renforcer la sécurité à tous les niveaux de la pile IA. Le Skeleton Key fonctionne en persuadant les modèles d’IA d’ignorer leurs propres mesures de protection, permettant aux attaquants de contrôler les sorties de l’IA et de manipuler son comportement. Cette découverte souligne l’importance de la vigilante sécurisation des systèmes d’IA.
Microsoft a conduit des tests avec succès sur différents modèles d’IA de premier plan, utilisant la technique Skeleton Key. Ces tests ont révélé la vulnérabilité de ces modèles face à ce type d’attaque. Le processus implique d’instruire le modèle pour qu’il annule ses propres règles décisionnelles et produise des comportements interdits. Par exemple, le modèle peut générer du contenu nuisible lorsqu’il est attaqué. Cette découverte met en évidence une fois de plus la nécessité impérative de mesures de sécurité robustes dans les systèmes d’IA. En réponse, Microsoft a actualisé ses offres IA, partagé ses découvertes avec d’autres fournisseurs, et mis à jour ses modèles gérés par Azure AI avec des Prompt Shields capables de détecter et de bloquer de telles attaques.
Pour contrer les risques associés à Skeleton Key et à des techniques similaires, Microsoft préconise une approche multicouche pour les concepteurs de systèmes IA. Cela inclut le filtrage des entrées, l’ingénierie des prompts, le filtrage des sorties et la mise en place de systèmes de surveillance des abus. De plus, Microsoft a mis à jour son Python Risk Identification Toolkit (PyRIT) pour inclure Skeleton Key, permettant ainsi aux développeurs et aux équipes de sécurité de tester leurs systèmes IA contre cette nouvelle menace. Cette découverte accentue les défis permanents que pose la sécurisation des systèmes IA au fur et à mesure qu’ils se répandent dans diverses applications et industries.
Microsoft a pris des mesures proactives pour adresser l’attaque Skeleton Key et améliorer la sécurité de ses offres IA, établissant un exemple à suivre pour les autres fournisseurs d’IA. Cette initiative démontre l’importance de la recherche continue, des tests réguliers et de la vigilance constante pour garantir la sécurité et l’intégrité des systèmes d’IA, en particulier alors que cette technologie devient de plus en plus intégrée dans les opérations et activités quotidiennes. L’incident avec Skeleton Key rappelle que la protection des systèmes d’IA nécessite un engagement soutenu et une adaptation permanente aux nouvelles menaces. Microsoft a désormais intégré ces protections, ce qui devrait inspirer toute l’industrie à adopter des mesures similaires pour une sécurité accrue des modèles d’IA.