Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Sommaire [Cacher]
Amazon Web Services (AWS) a récemment lancé une enquête approfondie sur Perplexity AI. La raison ? L’utilisation potentiellement abusive d’un robot d’exploration hébergé sur ses serveurs. Selon certaines informations, ce robot aurait enfreint les règles strictes du Robots Exclusion Protocol, ou plus communément le fichier robots.txt. Le célèbre magazine Wired a mis en lumière cette affaire en révélant que le robot de Perplexity AI s’était introduit dans divers sites web majeurs comme The Guardian, Forbes et The New York Times, en dépit des restrictions d’accès imposées par ces plateformes.
En parallèle, Reuters a rapporté que Perplexity n’était pas le seul acteur dans le domaine de l’intelligence artificielle à enfreindre ces règles. Plusieurs entreprises spécialisées dans le développement de modèles de langage de grande envergure sont également suspectées de contourner ces interdictions afin de collecter massivement des données.
Face à ces accusations, Sara Platnick, porte-parole de Perplexity AI, a fermement nié toute violation des règles. Elle a assuré que leurs robots suivaient scrupuleusement les termes de service d’AWS et qu’aucune directive de robots.txt n’était contournée. Cependant, le PDG de la société, Aravind Srinivas, a quant à lui reconnu l’utilisation de robots d’exploration tiers en plus de leurs propres outils. Il a admis que le bot incriminé pourrait faire partie de ces entités externes.
Cette divergence de discours au sein de l’entreprise a amplifié la confusion et les critiques. Un outil de détection de chatbots utilisé par Wired a montré que le robot de Perplexity AI paraphrasait minutieusement des articles en leur offrant peu d’attribution. De tels actes soulignent une possible intention délibérée de s’approprier du contenu sans respecter les normes d’éthique du web.
AWS, de son côté, a affirmé qu’il prenait ces allégations très au sérieux. L’entreprise est bien connue pour sa politique stricte contre les activités illégales et abusives sur ses serveurs. Elle reçoit régulièrement des rapports d’abus présumés et engage des discussions avec ses clients pour comprendre et enquêter sur ces signalements. Dans ce cas précis, AWS a mentionné qu’une enquête était en cours et que toute violation de leurs termes de service aboutirait à des sanctions appropriées.
Perplexity AI a reconnu ultérieurement que leur bot pourrait effectivement ignorer les directives du fichier robots.txt si une URL spécifique était incluse dans une requête de chatbot. Cette déclaration met en lumière une faille significative dans les pratiques de collecte de données d’intelligence artificielle, et soulève des questionnements éthiques majeurs.
Cette affaire met en évidence l’importance cruciale pour les entreprises de technologie de se conformer aux standards et aux règles du web. Les protocoles comme le fichier robots.txt existent pour assurer un équilibre entre les besoins de collecte de données et le respect des droits des créateurs de contenu. Ignorer ces règles peut non seulement porter atteinte aux droits des éditeurs de contenu, mais aussi ternir la réputation des entreprises impliquées.
Il est indispensable pour l’avenir de l’intelligence artificielle que les sociétés s’engagent dans des pratiques éthiques et transparentes. Seule une telle approche permettra de construire un écosystème numérique responsable et respectueux des droits de tous les acteurs. L’enquête de AWS sur Perplexity AI n’est qu’un exemple parmi tant d’autres, mais elle sert de rappel puissant quant à l’importance de suivre les règles établies et d’agir de manière responsable dans le monde numérique.