Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Sommaire
Dans le domaine de la régulation de l’intelligence artificielle (IA), l’Union Européenne (UE) et le Royaume-Uni ont adopté des politiques divergentes. Alors que l’UE a adopté une approche centrée sur une gestion active des risques par le biais de son Acte sur l’IA, le Royaume-Uni privilégie une posture pro-innovation et une évaluation sectorielle des risques. L’enjeu est d’établir un équilibre entre les avantages économiques de l’IA et ses risques potentiels pour la société.
L’Acte sur l’IA de l’UE est le premier texte de loi au monde dédié entièrement à l’intelligence artificielle, instaurant des obligations de conformité claires pour toutes applications et tous secteurs. L’Acte prévoit aussi la création d’un bureau européen de l’IA chargé de surveiller sa mise en application. Cette loi s’applique à toutes les entreprises d’IA qui font des affaires au sein de l’UE, avec des amendes potentielles allant jusqu’à 7% du chiffre d’affaires global de l’entreprise en cas de violation des règles. Cette régulation se base sur le niveau de risque, classifiant les systèmes d’IA en quatre niveaux de risque : inacceptable, élevé, limité ou faible, avec des règles plus strictes pour les systèmes à risque élevé, comme ceux utilisés dans la loi, la santé et les infrastructures critiques.
Pour l’heure, le Royaume-Uni n’a pas encore mis en œuvre une législation spécifique pour l’IA. Il a cependant proposé un cadre d’orientation pour les organes de régulation existants, en se concentrant sur le perfectionnement des régulateurs pour évaluer les opportunités et les risques associés à la technologie. Cela contraste avec l’approche de l’UE, qui cible des accords volontaires en matière de sécurité de l’IA. Cependant, le gouvernement britannique serait en train de préparer une législation sur l’IA, qui pourrait signaler un changement depuis sa posture pro-innovation précédente vers plus de supervision réglementaire, particulièrement pour les domaines comme les modèles linguistiques à grande échelle et le partage des algorithmes.
Cette approche divergente suscite des inquiétudes quant au potentiel de frein à l’innovation et à la compétitivité dans l’UE, tandis que le Royaume-Uni pourrait bientôt introduire sa propre législation, limitant potentiellement le développement de certaines technologies d’IA et exigeant des entreprises qu’elles partagent leurs algorithmes.
Ainsi, tant l’UE que le Royaume-Uni naviguent entre la promotion de l’innovation en IA et la gestion des risques potentiels, adaptant leurs cadres réglementaires à l’évolution du paysage de la technologie de l’intelligence artificielle. Face à l’avancée rapide de ces technologies, les critiques craignent une utilisation abusive et une manipulation du marché, conduisant les autorités régulatrices, comme l’Autorité de la concurrence et des marchés au Royaume-Uni, à envisager des mesures de protection contre l’exploitation et les conséquences non désirées. La route est encore longue mais le débat est ouvert, soulignant une fois de plus l’importance de l’éthique dans le domaine de l’IA.