Perplexity AI fait l'objet d'une plainte collective aux États-Unis : des trackers cachés partageraient les conversations des utilisateurs avec Meta et Google, même en mode Incognito. Un séisme pour la confiance envers les moteurs de recherche IA.

Pas encore de commentaire. Lancez la discussion !
Un utilisateur du Utah vient de déposer une plainte collective contre Perplexity AI devant le tribunal fédéral de San Francisco. L'accusation est limpide et glaçante : le moteur de recherche IA, présenté comme une alternative plus respectueuse de la vie privée que Google, partagerait en réalité les conversations de ses utilisateurs avec Meta et Google à leur insu. Des informations financières, fiscales et personnelles confiées au chatbot seraient ainsi aspirées par des trackers invisibles dès la connexion à la plateforme.
Selon la plainte, des trackers sont installés sur les appareils des utilisateurs dès qu'ils se connectent à Perplexity. Ces dispositifs donneraient à Meta et Google un accès complet aux échanges entre l'utilisateur et le moteur de recherche IA, leur permettant d'exploiter ces données sensibles à des fins publicitaires ou de les revendre à des tiers. Le plaignant affirme avoir partagé des informations financières et fiscales avec le chatbot, pensant que celles-ci resteraient confidentielles. Plus troublant encore, ce partage de données se produirait même lorsque l'utilisateur active le mode « Incognito » de Perplexity, censé garantir la confidentialité des recherches.
Cette affaire touche un point névralgique de l'écosystème IA. Les moteurs de recherche conversationnels comme Perplexity reposent sur un contrat implicite : l'utilisateur pose des questions parfois très personnelles, sur sa santé, ses finances ou sa vie privée, en échange d'une réponse directe et supposément confidentielle. Si ces conversations sont effectivement partagées avec les géants de la publicité, c'est tout le modèle de confiance des assistants IA qui vacille. Le timing est d'autant plus sensible que les lois californiennes sur la vie privée, parmi les plus strictes aux États-Unis, prévoient des sanctions lourdes en cas de violation avérée.
Perplexity AI nie catégoriquement les faits. Son porte-parole Jesse Dwyer a déclaré que l'entreprise n'avait « pas encore été formellement notifiée du dépôt de plainte » et affirme que « nous ne partageons pas les données utilisateurs avec Meta ou Google ». Du côté de Meta, un représentant a renvoyé vers ses conditions d'utilisation, qui interdisent aux annonceurs de lui transmettre des données sensibles. Google n'a pas commenté. Mais au-delà des dénégations, cette plainte pourrait créer un précédent majeur pour l'ensemble des plateformes IA conversationnelles, en posant une question fondamentale : quand vous parlez à une IA, qui d'autre écoute ?
Alors que l'IA conversationnelle s'impose dans le quotidien de millions de personnes, cette affaire rappelle que la course à la monétisation peut entrer en collision frontale avec la protection des données. Les utilisateurs confient à ces outils des requêtes qu'ils n'oseraient parfois pas taper dans un moteur de recherche classique. Si la justice confirme les allégations, Perplexity risque bien plus qu'une amende : c'est la crédibilité de toute une génération de produits IA qui serait mise en question. À l'heure où l'Europe impose le AI Act et où les États américains multiplient les législations sur la vie privée numérique, ce procès pourrait bien devenir le premier grand test judiciaire de la transparence des assistants IA.