Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Sommaire
OpenAI a récemment dévoilé une opération d’influence menée par l’Iran, utilisant son IA ChatGPT pour créer de fausses nouvelles et des contenus sur les réseaux sociaux visant les Américains. Baptisée « Storm-2035 », cette opération se focalisait sur la création d’histoires fictives et de publications sur divers sujets. Parmi ces thèmes, on retrouve la campagne présidentielle américaine, les droits des LGBTQ+, et la guerre en Gaza. L’objectif était clair : semer la confusion et polariser les opinions parmi les différentes communautés aux États-Unis.
L’opération « Storm-2035 » a également pris pour cible des plateformes comme X (anciennement Twitter) et Instagram. OpenAI a agi rapidement pour interdire les comptes associés à cette campagne après avoir identifié leur participation à la génération de contenus pour de faux médias en anglais et en espagnol. Cependant, malgré ces efforts, l’influence iranienne n’a pas réussi à gagner une traction significative. La majorité des posts sur les réseaux sociaux n’ont pas suscité beaucoup de likes, de partages ou de commentaires, limitant l’impact global de cette opération.
L’une des tactiques employées par les responsables de l’opération était de cibler à la fois les viewpoints conservateurs et progressistes. En produisant des contenus controversés et polarisants, ils espéraient exacerber les tensions existantes. Par exemple, des affirmations sensationnelles comme la supposée censure de Donald Trump et son intention de se déclarer roi faisaient partie de cette stratégie. En plus de ces sujets, de faux articles traitaient aussi de la présence d’Israël aux Jeux Olympiques, de la politique vénézuélienne, des droits des communautés latino-américaines, de l’indépendance écossaise, et même des thèmes plus légers comme la mode et la beauté.
Malgré ces efforts variés et stratégiques, la campagne n’a pas rencontré de succès notable. En ciblant simultanément les extrêmes du spectre politique, l’opération espérait générer du buzz et des débats, mais en réalité, elle n’a réussi à captiver ni les conservateurs ni les progressistes de manière significative. L’absence de réactions substantielles a montré que les tentatives de manipulation n’ont pas atteint les objectifs espérés.
Avant cette découverte récente par OpenAI, une série d’attaques contre les campagnes de Donald Trump et Kamala Harris avait déjà été révélée. Les hackers iraniens, tentant de compromettre ces campagnes avec des attaques de phishing, avaient été démasqués par le FBI. Dans le cadre de ces manœuvres, même Roger Stone, un allié de Trump, avait été ciblé. Cependant, grâce à une vigilance accrue en matière de cybersécurité, aucune preuve n’a été trouvée indiquant que des membres de la campagne de Harris aient été dupés.
La découverte par OpenAI de cette opération d’influence iranienne souligne les efforts incessants des acteurs malveillants pour manipuler les réseaux sociaux et les fausses nouvelles afin de façonner les opinions publiques. Cela met en lumière l’importance cruciale de détecter et de contrer ces opérations d’influence. OpenAI et les autorités américaines ont montré qu’une surveillance continue et une intervention rapide sont essentielles pour défendre l’intégrité des informations partagées en ligne.
En conclusion, la détection de l’opération « Storm-2035 » par OpenAI marque une victoire significative contre les tentatives de manipulation par des acteurs étatiques. Face à la sophistication croissante de ces menaces, la vigilance et la coopération entre le secteur technologique et les agences de sécurité sont plus cruciales que jamais pour protéger le discours public et maintenir la confiance dans les informations en ligne.