Phishing sur mesure, deepfakes, agents offensifs, Shadow AI… L’IA a mis un coup d’accélérateur à la menace cyber, et 2026 s’annonce chargée pour les entreprises.

Offre partenaire
Protection avancée des e-mails, des calendriers, des mots de passe, du réseau… de votre entreprise grâce à la suite d'applications professionnelles sécurisées.
Offre partenaire
Qu’on se le dise, l’IA ne réinvente pas les cyberattaques, mais elle en améliore le rendement. Plus de variantes, plus vite, plus crédibles, avec une capacité à s’ajuster en continu pour trouver la faille exploitable. Au final, on voit moins surgir des scénarios totalement inédits que des méthodes connues qui changent d’échelle, et qui mettent la pression sur les délais, les habitudes et les réflexes.
En parallèle, les entreprises s’exposent autrement. En connectant des assistants à des messageries, des bases documentaires et des outils métier, elles transforment des questions de droits et de périmètres en sujets de sécurité à part entière. La frontière entre « accès légitime » et « usage dévoyé » se fait plus mince, et le moindre excès de confiance se paie plus vite.
1. L’industrialisation du phishing hyper-personnalisé
Le phishing n’a pas attendu l’IA pour se porter comme un charme. Ce qui change, en revanche, c’est l’économie de l’attaque, les cybercriminels pouvant désormais produire un volume énorme de variantes, ajuster le ton, la langue, le contexte sectoriel, et tester en continu ce qui déclenche un clic ou une réponse. Dès lors, l’hyper-personnalisation devient plus accessible parce qu’elle s’appuie sur des traces publiques, des fuites, des données d’entreprise trop exposées, et des indices glanés sur les réseaux. On ne parle plus seulement d’un mail bien écrit, mais d’un scénario complet, cohérent, et adapté à votre organisation.
Or, quand produire du crédible ne coûte presque rien, analyser le contenu ne suffit plus. D’où la nécessité de sécuriser l’identité et le geste, avec une authentification résistante au phishing, des validations hors messagerie pour toute demande sensible, et une sensibilisation qui colle aux modes opératoires actuels, pas à une version 2018 de l’arnaque au colis.
2. Les deepfakes audio et vidéo, ou l’art de la mise en scène
Jusqu’ici, la voix et la vidéo avaient un statut implicite, celui de la preuve intuitive. Une visio rapide, un vocal, un appel en urgence, on reconnaît son interlocuteur, et on s’exécute. C’est cette confiance instinctive que les deepfakes exploitent, souvent sans viser la perfection, puisqu’il leur suffit d’être assez crédibles pour imposer un tempo et faire passer une demande sensible pour une formalité.
La menace ne vise plus seulement l’usurpation d’un dirigeant, elle cible désormais les processus. Validation financière, recrutement, changement de coordonnées bancaires, support interne, échanges avec les prestataires, demandes d’accès, tout ce qui repose sur une confirmation « à l’oreille » ou « à l’image » devient attaquable.
Le deepfake ne remplace pas le phishing, il le renforce et oblige à cadrer toute requête à risque. On ne valide plus une action sur une ressemblance, mais sur un faisceau d’indices indépendants, l’appareil utilisé, le contexte de la demande, des signaux de comportement, une confirmation via un autre canal, et, quand c’est possible, une preuve cryptographique (passkey, clé matérielle, certificat) ou des traces d’authentification cohérentes.
3. Les attaques centrées sur l’identité au sens large
En matière d’intrusion, l’identité a pris la place du poste de travail comme cible prioritaire. Identifiants, sessions, jetons d’accès, comptes de service, clés d’API, certificats, identités d’applications dans le cloud, tout ce qui permet de se connecter et d’agir au nom de quelqu’un se vole, se contourne ou se loue. Et quand ces identités sont trop privilégiées ou mal surveillées, la compromission coûte cher, parce qu’elle ouvre des droits sans déclencher d’alerte immédiate.
Ici, l’IA fait surtout gagner du temps, en aidant à repérer plus vite qui a accès à quoi, à monter des prétextes crédibles, et à industrialiser les tentatives, parfois avec des identités « fabriquées » pour tromper les systèmes de contrôle. Le but reste le même, mettre le grappin sur une session ou un jeton, puis s’en servir pour progresser de service en service au sein du système d’information.
Vous pouvez miser sur un mot de passe plus compliqué, mais ça ne réglera qu’une partie du problème si vous ne vous astreignez pas à une gestion stricte des accès, au cloisonnement et au renouvellement régulier des secrets, et à un suivi actif des connexions et des jetons, en passant au peigne fin tout ce qui touche au support, aux réinitialisations d’authentification multifacteur, aux changements d’appareil et aux ouvertures de droits.
4. Les agents IA offensifs et les opérations plus autonomes
Cela peut sembler contre-intuitif, mais l’apport majeur de l’IA pour les attaquants, c’est la cadence plus que l’ingéniosité. Des systèmes capables d’enchaîner repérage, tri de cibles, génération de leurres, tests d’exposition et ajustement des tentatives permettent d’itérer vite, et de relancer sans s’épuiser, même si l’orchestration complète reste souvent pilotée par des humains.
Cette accélération pèse ensuite sur les campagnes d’extorsion, y compris le ransomware, parce qu’elle compresse les délais entre intrusion, mouvements latéraux et mise sous pression. L’IA n’est pas forcément le moteur principal, une faille exposée, un accès acheté, un compte mal protégé suffisent déjà, mais elle aide à optimiser le chemin, à automatiser des étapes, et parfois à mettre en scène la négociation.
Or, quand l’adversaire peut tester, corriger et relancer à un rythme effréné, la fenêtre de réaction rétrécit. Pour les équipes de sécurité, cela signifie qu’il faut gagner en visibilité sur ce qui se passe réellement, outiller le centre opérationnel pour déclencher vite les mesures de blocage, et réduire ce que l’attaque peut exploiter. Cela passe par une exposition limitée, des accès d’administration durcis, des procédures de support verrouillées, des sauvegardes isolées, testées et restaurables rapidement, et des garde-fous qui empêchent un premier accès de servir de tremplin vers le reste du système.
5. L’injection de prompt et le détournement d’assistants
L’injection de prompt, c’est l’art de glisser des instructions malveillantes dissimulées dans un contenu, par exemple reçu par mail, que l’assistant va lire et traiter, de manière à lui faire faire autre chose que ce qui était prévu. Pas besoin de pirater le modèle, il suffit de le manipuler. Et plus l’assistant a accès à des données internes ou à des outils capables d’agir, plus l’impact peut être préoccupant, à plus forte raison quand les instructions poussent l’agent à exécuter (créer un ticket, envoyer un message, accéder à un drive, déclencher une opération), et plus seulement à répondre.
Il ne s’agit évidemment pas d’interdire les assistants intelligents, mais de les brider intelligemment : limiter les données qu’ils peuvent consulter, cloisonner par périmètre, restreindre les actions possibles, imposer une validation humaine pour ce qui est sensible, et garder des traces exploitables de ce que l’assistant a consulté et de ce qu’il a tenté de faire.
6. La fuite de données par assistants connectés aux outils internes
À partir du moment où l’on connecte un assistant à des outils internes, il devient une voie d’accès aux données internes. Ce qui signifie que même sans intention malveillante, une requête trop large, un périmètre mal défini, un partage mal paramétré peuvent conduire l’agent IA à restituer des informations qu’il n’aurait jamais dû voir ou révéler, et donc provoquer une fuite involontaire.
Le risque augmente encore quand il sert d’interface pratique pour tout le monde, parce qu’il agrège et résume ce qu’on lui donne à lire. Par simple effet de contexte, il peut alors exposer des informations sensibles en rapprochant des éléments issus de requêtes différentes, formulées par des personnes différentes, pour des usages différents, et les livrer à quelqu’un qui n’aurait pas dû y avoir accès.
Il ne s’agit pas là seulement de bien choisir son modèle, mais de traiter l’accès aux données comme un réglage de sécurité à part entière. Concrètement, l’assistant ne doit pouvoir accéder qu’au strict nécessaire, rester cantonné à un périmètre défini par équipe, être encadré par des garde-fous sur ce qu’il peut restituer ou exporter, et soumis à un suivi qui permette de repérer rapidement toute requête anormale.
7. La chasse aux vulnérabilités accélérée par l’IA
L’IA peut aider à trouver des failles, et c’est une bonne nouvelle pour les équipes de sécurité… comme pour les cybercriminels, qui peuvent automatiser le passage au crible d’un plus grand nombre de cibles, repérer plus vite des versions exposées, prioriser ce qui a le plus de chances de fonctionner, et adapter rapidement un exploit à un contexte donné, à grande échelle.
Et comme l’IA accélère aussi la production de code, on publie plus vite, on expose plus d’API, on empile plus de dépendances, et la surface d’attaque grandit mécaniquement. In fine, la chasse aux vulnérabilités se transforme en course permanente entre ceux qui corrigent et ceux qui exploitent, avec un avantage pour l’attaquant dès que les changements côté applications et API s’enchaînent plus vite que les patchs.
8. Le Shadow AI, ou la fuite par habitude
Le Shadow IT a longtemps été un problème d’outils non validés, installés dans un coin pour aller plus vite. Le Shadow AI reprend exactement la même logique, sauf qu’il touche directement aux contenus. Un mail client, un contrat, une capture d’écran, un bout de code, un tableau de ventes, et voilà des informations internes copiées dans un chatbot grand public, parfois depuis un compte personnel, sans cadre, sans visibilité, et sans certitude sur ce qui est conservé, réutilisé, ou simplement exposé au mauvais endroit.
C’est aussi ce qui rend le sujet si délicat. Dans la majorité des cas, il n’y a pas de malveillance. Il y a une contrainte de temps, un besoin de reformuler, de traduire, de résumer, de produire vite. L’IA devient alors un raccourci naturel, presque un réflexe, et ce réflexe transforme une question d’outillage en risque de sécurité et de conformité. Les données sortent de leur périmètre, l’entreprise perd la maîtrise de leur circulation, et le moindre incident devient difficile à qualifier, parce que personne ne sait exactement ce qui a été partagé, à quel moment, avec quel service, et sous quelles conditions.
L’idée n’est pas d’interdire mais de canaliser. Un outil validé, avec un compte professionnel, des paramètres clairs sur la rétention et l’usage des données, des périmètres d’accès limités, et une politique compréhensible qui dit ce qu’on peut envoyer, ce qu’on ne doit jamais envoyer, et quoi faire quand on hésite. Ajoutez à cela un minimum de visibilité, journalisation, contrôles sur les connecteurs, et une sensibilisation orientée usage, parce que le Shadow AI se combat moins avec des grands principes qu’avec des habitudes qui changent.
- storage1 To de stockage / utilisateur
- securityChiffrement natif par défaut
- alternate_emailSupport nom de domaine
- smartphoneApplications iOS, Android
- push_pinJurisdiction Suisse
Proton Business Suite regroupe une messagerie électronique chiffrée, un gestionnaire de mots de passe, un agenda sécurisé, un cloud et un VPN, centralisés dans une seule offre pour entreprises. L’ensemble fonctionne avec un chiffrement de bout en bout et une console d’administration qui permet de gérer facilement utilisateurs et paramètres de sécurité. Les solutions disponibles incluent la gestion de domaines personnalisés pour les e-mails professionnels, la synchronisation et le partage sécurisé de fichiers sans limite de taille, ainsi que la navigation protégée par VPN pour tous les terminaux de l’équipe. Le tout est conçu pour fournir des outils professionnels intuitifs tout en garantissant la confidentialité des données et la conformité aux principales normes de sécurité.
- Alternative européenne sécurisée
- Rapport prix/fonctionnalités attractif
- Pas d'intégration SSO / SCIM