Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Sommaire
Récemment, OpenAI a pris une mesure drastique en interdisant un groupe de comptes ChatGPT liés à une opération d’influence iranienne. Cette initiative visait à générer du contenu manipulé à propos de l’élection présidentielle américaine. C’est loin d’être la première fois qu’OpenAI intervient pour contrecarrer des campagnes similaires visant à influencer l’opinion publique à l’aide de ses outils d’intelligence artificielle. En bannissant ces comptes, OpenAI démontre une vigilance accrue face aux menaces que représentent les acteurs étatiques utilisant des technologies de pointe pour répandre de la désinformation sur les réseaux sociaux.
Les derniers développements montrent que les acteurs étatiques, à l’instar de l’Iran avec le groupe désigné comme Storm-2035, exploitent désormais les capacités des intelligences artificielles génératives. Cette tendance rappelle tristement les tentatives passées de manipuler les élections via des plateformes comme Facebook et Twitter. Selon le rapport de Microsoft sur les menaces, Storm-2035 s’est infiltré dans le débat électoral en publiant des articles sur de faux sites d’actualités se faisant passer pour des médias tant progressistes que conservateurs. En outre, ils ont réécrit des commentaires politiques sur les réseaux sociaux, cherchant à semer la discorde parmi les groupes d’électeurs.
Face à la montée de ces nouvelles stratégies, OpenAI a adopté une approche proactive pour détecter et interdire les comptes diffusant du contenu généré par l’IA à des fins malveillantes. La société a découvert que malgré la sophistication de Storm-2035, leur contenu n’a pas suscité un engagement significatif sur les réseaux sociaux. Cela met en lumière que ces opérations, souvent rapides et peu coûteuses à mettre en place grâce aux outils comme ChatGPT, peuvent néanmoins être contrées par une vigilance continue et des interventions ciblées. Alors que l’élection approche, il est attendu que l’utilisation de ces techniques de manipulation sur les réseaux sociaux augmente, rendant la tâche des sociétés technologiques encore plus complexe.
La manipulation de contenu à des fins politiques, alimentée par des outils d’intelligence artificielle comme ChatGPT, ne montre aucun signe de ralentissement. À mesure que les débats partisans en ligne s’intensifient, la résilience des plateformes sociales face à ces nouvelles formes de désinformation sera cruciale. En conjuguant technologies avancées et surveillance active, il est possible de limiter l’impact de ces campagnes de manipulation, bien que le défi reste de taille.