Les dérives de l'intelligence artificielle en entreprise inquiètent la DGSI, la Direction générale de la Sécurité intérieure, qui alerte sur les risques d'ingérence, liés aux documents confidentiels exposés ou encore aux deepfakes.

L'intelligence artificielle s'impose dans le monde professionnel, souvent avec des gains de productivité spectaculaires. Mais la révolution technologique en cours comporte son lot de dangers. Dans un document sur l'ingérence économique, publié il y a quelques jours, la Direction générale de la Sécurité intérieure (DGSI) révèle des cas réels où l'usage inconsidéré d'outils d'IA a mis en péril des données stratégiques. Elle y parle notamment de salariés qui utilisent des outils étrangers sans autorisation, ou de dirigeants qui délèguent leurs décisions aux algorithmes.
L'IA générative gratuite est pratique, mais elle reste dangereuse pour vos données
Imaginez le cas du directeur informatique d'une multinationale française, qui apprend que certains salariés utilisent un outil d'IA générative étranger gratuit pour traduire des documents de travail. Qu'il s'agisse de contrats, de notes internes ou de rapports techniques, ils copient-collent tout dans l'outil sans autorisation de leur hiérarchie. Une histoire vraie, mais surtout un réflexe devenu automatique, perçu comme un simple coup de pouce à la productivité.
Sauf que ce « simple » gain de temps ouvre une brèche béante. Les outils gratuits d'IA générative ont un modèle économique simple. Ce que vous leur confiez aujourd'hui alimente leur base de données. Concrètement, votre contrat confidentiel peut ressurgir demain dans une réponse donnée à un concurrent. Pire encore, ces informations sont stockées à l'étranger, sur des serveurs soumis à des lois étrangères qui peuvent contraindre l'entreprise à livrer vos données.
La direction de la multinationale a réagi en urgence, en achetant une solution d'IA sécurisée pour remplacer les outils gratuits et en mettant en place des règles strictes d'utilisation. Mais ce fut trop tard, car des documents confidentiels circulaient déjà dans les serveurs de l'outil étranger. Voilà qui montre que les salariés ne mesurent pas les conséquences de leurs gestes quotidiens. Pour eux, copier un texte dans une IA, c'est anodin. Ils ignorent qu'ils exposent ainsi les secrets de l'entreprise.

Les dangers de la dépendance excessive aux outils d'IA
Le deuxième cas est encore plus sidérant. Une société française en expansion doit vérifier la fiabilité de nouveaux partenaires étrangers avant de signer : sont-ils solvables ? Honnêtes ? Risqués ? Au lieu de mener ces enquêtes elle-même, elle a tout confié à une IA étrangère. L'outil pond un rapport, la direction suit aveuglément ses recommandations sans rien vérifier. Résultat, l'entreprise n'a plus aucun contrôle sur ses propres choix stratégiques.
Ce genre de comportement peut, selon la criticité des documents transmis, relever de l'inconscience, aux yeux de la DGSI. Car l'IA n'est ni neutre, ni infaillible. Elle peut amplifier des biais présents dans les données d'entraînement et produire des décisions inéquitables ou discriminatoires. Elle peut aussi « halluciner », autrement dit créer des événements de toute pièce. Car l'IA formule généralement ses résultats sur la base de la réponse la plus probable statistiquement, pas nécessairement la plus pertinente ni exacte dans le contexte.
La DGSI enfonce le clou et estime qu'une dépendance excessive aux outils d'IA peut diminuer la vigilance humaine. Elle appelle ainsi à ne jamais fonder une décision uniquement sur les résultats d'une IA. Pourquoi ? Parce que les algorithmes fonctionnent comme des « boîtes noires », dont on ne peut pas vérifier le raisonnement. Impossible de savoir pourquoi tel partenaire a été recommandé ou rejeté. Cette opacité totale fait perdre aux entreprises le contrôle de leurs propres choix stratégiques, avec des conséquences potentiellement désastreuses.
L'hypertrucage arrive au bureau et les escroqueries explosent
Enfin, la DGSI a décidé de mettre à l'honneur l'arnaque au deepfake. Ici, le responsable d'un site industriel reçoit un appel en visioconférence. À l'écran, apparaît son PDG en personne. Même visage, même voix, même intonation. Le dirigeant lui demande alors de virer des fonds rapidement pour boucler une acquisition. C'est cette précipitation inhabituelle qui met la puce à l'oreille du responsable, qui flaire l'arnaque.
Surpris par le caractère inhabituel de la démarche, le responsable du site met un terme aux échanges et alerte sa direction par les canaux habituels. Le verdict ne met pas longtemps à tomber : il a fait l'objet d'une tentative d'escroquerie par hypertrucage. Des pirates avaient utilisé l'IA pour associer le visage et la voix du dirigeant avec une précision diabolique. Cette technique, autrefois complexe, est désormais accessible pour créer des contenus truqués à des fins de manipulation, commettre des fraudes ou du chantage.
On comprend que l'intelligence artificielle permet aux escrocs de multiplier leurs attaques à l'infini. Avant, créer un faux message crédible, ou étudier une cible, prenait du temps. Aujourd'hui, l'IA génère automatiquement des e-mails frauduleux parfaits, analyse en quelques secondes les réseaux sociaux d'une victime pour la piéger sur mesure. La DGSI appelle à former les équipes aux nouvelles arnaques, à encadrer strictement l'usage de l'IA en interne, et à signaler tout incident suspect à ses services, via l'adresse securite-economique@interieur.gouv.fr.