Navigateurs AI : Trop Risqués pour une Adoption Générale selon Gartner
Aurélien Fontevive
Selon une récente étude de Gartner publiée en 2025, les navigateurs intégrés d’intelligence artificielle présentent des risques de sécurité trop importants pour une adoption généralisée par la plupart des organisations. Cette alerte, issue d’un document de 13 pages rédigé par les analystes Dennis Xu, Evgeny Mirolyubov et John Watts, souligne que ces technologies innovantes pourraient compromettre la sécurité des données sensibles et exposer les entreprises à des menaces émergentes dans le paysage cyber actuel.
Les Risques Principaux des Navigateurs AI
Les navigateurs AI, dont les capacités autonomes permettent une navigation web et des transactions sans intervention humaine, représentent une avancée technologique majeure. Cependant, cette autonomie crée également des vulnérabilités significatives. Selon Gartner, ces navigateurs peuvent “contourner les contrôles traditionnels et créer de nouveaux risques tels que les fuites de données sensibles, les transactions agentic erronées et l’abus d’identifiants”.
Fuites de sensibles données
L’une des préoccupations majeures concerne le traitement des données utilisateurs. Par défaut, les paramètres des navigateurs AI privilégient l’expérience utilisateur, souvent au détriment de la sécurité. “Les données sensibles des utilisateurs - telles que le contenu web actif, l’historique de navigation et les onglets ouverts - sont souvent envoyés vers le backend cloud AI, augmentant le risque d’exposition des données à moins que les paramètres de sécurité et de confidentialité ne soient durcis et gérés de manière centralisée”, expliquent les analystes.
Dans la pratique, cela signifie que tout ce qu’un utilisateur consulte sur son navigateur pourrait potentiellement être transmis aux serveurs de l’éditeur du navigateur AI. Imaginez un consultant qui consulte des documents confidentiels d’un client tout en utilisant la fonction de résumé d’un navigateur AI - ces données sensibles pourraient être extraites et stockées sur des serveurs externes sans que l’utilisateur ne s’en rende compte.
Transactions erronées et abus d’identifiants
Les capacités agentic des navigateurs AI introduisent des scénarios de risque particulièrement préoccupants. Lorsqu’un navigateur AI est trompé pour naviguer automatiquement vers un site de phishing, cela peut entraîner une perte supplémentaire et un abus d’identifiants. Les employés pourraient être tentés d’utiliser ces navigateurs pour automatiser des tâches, ce qui pourrait entraîner “des transactions agentic erronées contre les ressources internes suite au raisonnement inexact ou au contenu de sortie du LLM”.
Néanmoins, la différence fondamentale entre un navigateur AI et un assistant conversationnel traditionnel réside dans sa capacité à effectuer des actions autonomes. Un navigateur standard permet à l’utilisateur de naviguer et d’interagir avec le web, tandis qu’un navigateur AI peut non seulement naviguer, mais aussi comprendre le contexte, prendre des décisions et exécuter des actions en fonction de cet understanding - ce qui multiplie les vecteurs d’attaque potentiels.
Vulnérabilités aux attaques par injection de prompt
Les chercheurs ont principalement ignoré les risques posés par les barres latérales AI intégrées aux navigateurs, notant que les fonctions de recherche et de résumé basées sur les LLM “seront toujours vulnérables aux attaques par injection de prompt indirectes, étant donné que les LLM actuels sont intrinsèquement vulnérables à de telles attaques”. Par conséquent, les risques de cybersécurité associés à la barre latérale AI d’un navigateur ne sont pas le principal focus de cette recherche.
Toutefois, ils notent que l’utilisation de ces barres latérales pourrait également entraîner des fuites de données sensibles. Dans un contexte où les employés français sont de plus en plus sollicités pour utiliser des outils productivité basés sur l’IA, cette vulnérabilité représente un défi majeur pour les responsables de la sécurité des informations.
Focus sur Perplexity Comet et ChatGPT Atlas
Fonctionnalités agentic des navigateurs AI
La capacité de transaction agentic “est une nouvelle capacité qui différencie les navigateurs AI des barres de conversation AI tierces et de l’automatisation de navigateur basée sur des scripts”, expliquent les analystes. Cette autonomie permet aux navigateurs AI d’accomplir des tâches complexes sans intervention directe de l’utilisateur, mais crée également des scénarios de risque inédits.
Selon les données du marché français, près de 34% des entreprises ont déjà testé des formes d’automation basées sur l’IA dans leurs opérations quotidiennes. Ce chiffre ne fait que croître alors que les navigateurs AI deviennent plus sophistiqués et accessibles au grand public comme aux professionnels.
Risques spécifiques de Perplexity Comet
Tous les navigateurs AI ne supportent pas les transactions agentic, notent les analystes. Deux exemples notables qui le font sont Perplexity Comet et OpenAI’s ChatGPT Atlas. Les chercheurs ont effectué “un nombre limité de tests en utilisant Perplexity Comet”, ce navigateur étant donc leur principal focus, bien qu’ils aient précisé que “ChatGPT Atlas et autres navigateurs AI fonctionnent de manière similaire, et les considérations de cybersécurité sont également similaires”.
La documentation de Comet indique que le navigateur “peut traiter certaines données locales en utilisant les serveurs de Perplexity pour satisfaire vos requêtes. Cela signifie que Comet lit le contexte de la page demandée (tel que le texte et les e-mails) afin d’accomplir la tâche demandée”.
“Cela signifie que les données sensibles que l’utilisateur consulte sur Comet pourraient être envoyées au service AI cloud de Perplexity, créant un risque de fuite de données sensibles”, soulignent les analystes de Gartner.
Dans un contexte professionnel français, un consultant juridique pourrait consulter des contrats confidentiels tout en utilisant Comet pour résumer des documents juridiques complexes. Si ces documents contiennent des informations sensibles sur les stratégies d’une entreprise ou des détails contractuels confidentiels, leur transmission involontaire à un service cloud externe représenterait une violation majeure de la confidentialité.
Documentation et implications de sécurité
Les utilisateurs sont susceptibles de consulter des données plus sensibles dans un navigateur qu’ils ne le feraient typiquement dans une invite de GenAI, notent les experts. Même si un navigateur AI est approuvé, les utilisateurs doivent être formés pour comprendre que “tout ce qu’ils consultent pourrait potentiellement être envoyé au backend du service AI” afin de s’assurer qu’ils n’ont pas de données hautement sensibles actives dans l’onglet du navigateur tout en utilisant la barre latérale du navigateur AI pour résumer ou effectuer d’autres actions autonomes.
Voici un tableau comparatif des risques associés aux navigateurs AI traditionnels versus les navigateurs avec capacités agentic :
| Type de Navigateur AI | Risque de Fuite de Données | Potentiel de Transaction Erronée | Vulnérabilité au Phishing | Nécessité de Contrôle Centralisé |
|---|---|---|---|---|
| Navigateurs avec barres latérales AI | Moyen | Faible | Moyen | Faible |
| Navigateurs avec capacités agentic | Élevé | Élevé | Élevé | Élevé |
Recommandations de Gartner pour les Organisations
Stratégies de blocage et de contrôle
Gartner recommande fermement que les employés soient empêchés d’accéder, de télécharger et d’installer des navigateurs AI via les contrôles de sécurité réseau et de point de terminaison. “Les organisations avec faible tolérance au risque doivent bloquer les installations de navigateurs AI, tandis que celles avec tolérance au risque plus élevée peuvent expérimenter des cas d’utilisation d’automatisation à faible risque et hautement contrôlés, en assurant des garde-robustes et une exposition minimale aux données sensibles”, expliquent les analystes.
Dans la pratique, cela signifie implémenter des politiques de sécurité strictes qui empêchent l’exécution de ces navigateurs sur les postes de travail, similaire à la manière dont de nombreuses entreprises gèrent les logements non autorisés. Les solutions de sécurité réseau peuvent être configurées pour bloquer les communications avec les serveurs backend des navigateurs AI, tandis que les solutions EDR (Endpoint Detection and Response) peuvent empêcher leur installation et leur exécution.
Pilotes contrôlés pour les organisations tolérantes au risque
Pour les organisations décidées à explorer ces technologies malgré les risques, Gartner propose une approche prudente avec des pilotes très contrôlés. Ces cas d’utilisation devraient être limités à des scénarios à faible risque, avec une surveillance stricte et des garde-robustes en place.
Dans un contexte français, une entreprise de logistique pourrait envisager d’utiliser un navigateur AI pour automatiser le suivi des expéditions et la mise à jour des systèmes internes, à condition que ces données ne contiennent pas d’informations sensibles sur les clients ou les stratégies commerciales. Ce type d’utilisation limitée permet de bénéficier des gains de productivité tout en minimisant les risques.
Paramètres de sécurité à configurer
Pour les cas d’utilisation pilotes, les analystes recommandent de désactiver le paramètre “conservation des données AI” de Comet afin que Perplexity ne puisse pas utiliser les recherches des employés pour améliorer ses modèles AI. Les utilisateurs devraient également être instruits pour effectuer périodiquement la fonction “supprimer tous les souvenirs” dans Comet afin de minimiser le risque de fuite de données sensibles.
# Exemple de configuration de sécurité pour Perplexity Comet
# Désactivation de la conservation des données
perplexity_config = {
"data_retention": False,
"auto_delete_memories": True,
"memory_cleanup_interval": "daily",
"block_sensitive_sites": True,
"require_manual_approval": True
}
# Configuration du navigateur pour les entreprises
browser_security_policy = {
"allow_ai_browsers": False,
"allowed_ai_domains": [],
"monitor_ai_traffic": True,
"data_encryption": "end_to_end",
"audit_logs": True
}
Vers une Adoption Réfléchie de l’AI
Alors que les navigateurs AI continuent d’évoluer et de gagner en popularité, la prudence reste de mise. Gartner souligne que cette technologie est “très naissante” et que d’autres risques potentiels sont encore à découvrir. Dans un paysage cyber où les menaces évoluent aussi rapidement que les technologies de défense, une approche graduelle et prudente est essentielle.
Selon une enquête menée par l’ANSSI en 2025, 68% des organisations françaises considèrent les technologies d’IA comme des vecteurs de risque significatifs pour leur sécurité, tandis que seulement 23% disposent de politiques formelles pour gérer l’utilisation d’outils AI dans leur environnement professionnel. Ce décalage entre la reconnaissance des risques et la préparation organisationnelle représente un défi majeur pour les années à venir.
“L’adoption hâtive des navigateurs AI sans une compréhension approfondie de leurs risques associés pourrait entraîner des conséquences graves pour la sécurité des données et la conformité réglementaire”, prévient un expert en cybersécurité interrogé par nos soins.
Les organisations doivent développer des politiques claires concernant l’utilisation des navigateurs AI, former leurs employés aux risques associés, et implémenter des contrôles techniques appropriés. Dans le même temps, les éditeurs de ces technologies doivent travailler à améliorer leur sécurité et leur transparence pour gagner la confiance des organisations et des utilisateurs.
En conclusion, bien que les navigateurs AI offrent des capacités fascinantes et des gains de productivité potentiels, les risques de sécurité associés sont actuellement trop importants pour une adoption généralisée. Une approche prudente, graduelle et bien informée est essentielle pour naviguer ce nouveau paysage technologique en toute sécurité.