Neuf personnes sur dix se disent inquiètes de l'utilisation de leurs données par l'IA. C'est le résultat d'une enquête menée par Malwarebytes entre fin janvier et début février 2026 auprès de 1 235 abonnés à sa newsletter.

9 internautes sur 10 se méfient encore de l’IA : qu’est-ce qui bloque ?
9 internautes sur 10 se méfient encore de l’IA : qu’est-ce qui bloque ?

Les assistants IA sont désormais présents partout - dans les moteurs de recherche, les messageries d'entreprise, les applications du quotidien. Mais si les usages se démocratisent, cela ne renforce pas pour autant la confiance qu'on peut leur accorder.

Le flou des données personnelles

Sur les réseaux sociaux, les utilisateurs comprennent, plus ou moins, le mécanisme des clics et les "likes" qui alimentent des profils publicitaires. Avec l'IA, c'est différent. On lui soumet des notes de réunion confidentielles, des questions médicales, des dilemmes personnels. L'interaction est conversationnelle, presque intime. Et pourtant, personne ne sait précisément ce qu'il advient de ces échanges.

Les questions restent sans réponse claire : ces conversations sont-elles stockées ? Servent-elles à entraîner les modèles ? Des employés de l'entreprise peuvent-ils y accéder ? Les politiques de confidentialité existent, mais rares sont ceux qui les lisent avant d'utiliser un outil. Et puis, avec le RGDP, la politique de confidentialité est-elle la même pour tout le monde. 48% des répondants disent désormais les consulter, et selon Malwarebytes, ce chiffre est en hausse par rapport aux 43% de son enquête de 2025. Sur ce point, rappelons que la CNIL et l'ANSSI ont d'ailleurs ouvert les tests de leur projet PANAME, un outil open source conçu pour vérifier si un modèle d'IA a bien retenu des données personnelles issues de son entraînement.

Face à cette opacité, les internautes ne seraient finalement pas aussi passifs. 88% des personnes interrogées évitent de partager librement des informations personnelles avec des outils comme ChatGPT ou Gemini. 84% refusent de communiquer des données de santé à une IA. Et si les gens semblent avoir bien du mal à quitter les réseaux sociaux, ici, cette méfiance se traduit par des actions concrètes. 43% affirment avoir cessé d'utiliser ChatGPT et 42% ont quitté Gemini. La défiance envers l'IA reflète d'ailleurs une méfiance plus marquée envers les entreprises tech : 92% des sondés s'inquiètent de l'exploitation abusive de leurs données par des sociétés privées, contre 89% en 2025. Doucement mais surement, les choses bougent.

Des utilisateurs moins passifs

Il y a un an, 74% des répondants se sentaient impuissants face à la dispersion de leurs données en ligne. Ce chiffre tombe à 63% en 2026. Ce n'est pas un basculement radical, mais c'est un signal. La résignation cède du terrain face à l'action.

Les comportements évoluent en parallèle. L'usage des VPN concerne désormais 46% des répondants (contre 42% en 2025). L'authentification à deux facteurs, dite MFA atteint 76% contre 69% l'an dernier. 82% des répondants refusent activement la collecte de leurs données lorsque c'est possible, contre 75% en 2025. Et 25% recourent à des services de suppression de données personnelles. Ces démarches ne permettent pas d'effacer les traces passées, mais elles limitent les nouvelles expositions.

On le sait, entre souveraineté et confidentialité, la protection des données devient un argument commercial et il faut bien dire que dans ce contexte l'IA fait un peu tâche.