Une présentation à la conférence Black Hat 2025 sème le doute : certaines fonctions d’Apple Intelligence, dont Siri, enverraient plus de données qu’annoncé vers les serveurs d’Apple. Un point de friction entre marketing et réalité technique. Alors, faut-il s’inquiéter ? On fait le tri.

© Colin Golberg avec Midjourney
© Colin Golberg avec Midjourney

Avec Apple Intelligence, la marque à la pomme promettait une IA « utile et privée ». Une ambition noble, sur le papier. Lors de la conférence Black Hat 2025, Yoav Magid, un spécialiste en sécurité, a levé un coin du rideau, en s’intéressant de près aux paquets réseau que Siri et consorts envoient dans le cloud. Il dévoile ses travaux dans une présentation nommée « AppleStorm », qui a dû donner quelques sueurs froides à Tim Cook & compagnie.

Résultat ? Des données de contexte — parfois très personnelles — qui accompagnent des requêtes pourtant anodines. Localisation précise, liste des applis actives, métadonnées audio… Ça fait beaucoup pour une simple demande de la météo du jour. Alors qu’Apple martèle que tout passe soit en local, soit via son Private Cloud Compute ultra securisé, ces découvertes rappellent que la réalité réseau est souvent plus nuancée que le discours marketing. On a épluché tout ça, et on vous dit ce que vous pouvez faire dès aujourd’hui pour limiter la casse.

Siri trop bavard ? Ce que révèle vraiment « AppleStorm »

La démonstration repose sur des cas concrets, comme cette requête simple : « Quel temps fait‑il aujourd’hui ? ». Derrière cette question banale, les flux réseaux semblent bien plus bavards qu’annoncé. Coordonnées GPS précises, état des applications ouvertes, catégories d’apps installées, voire liste de lecture musicale en cours — tout ça transite vers différents serveurs Apple, notamment guzzoni.apple.com (serveur historique de Siri) ou *.smoot.apple.com, lié aux fonctions de recherche.

L'écran de paramètres d'Apple Intelligence et Siri © Colin Golberg

Le problème n’est pas tant que ces données soient envoyées, mais qu’elles le soient sans que l’utilisateur en ait clairement conscience. Et alors que certaines actions pourraient parfaitement se gérer en local, on constate que Siri continue de "pousser du contexte" pour enrichir la réponse, quitte à en dire un peu trop.

S’ajoute à cela l’extension ChatGPT, intégrée à Siri et proxyfiée côté Apple. Résultat : une duplication possible des requêtes, et là encore, des métadonnées qui circulent dans tous les sens. Apple promet du chiffrement, de l’anonymisation, et des relais sécurisés. Soit. Mais le niveau de détail qui part dans le cloud peut surprendre, surtout pour un utilisateur lambda. Et dans un cadre pro ou réglementé, ça pique encore un peu plus.

Apple réagit… mais reste floue sur certains points

Face à ces révélations, Apple a reconnu les faits à demi-mots, et assuré travailler à des ajustements. C'est d'ailleurs probablement pour cela que la nouvelle version de Siri boosté à l'IA a pris tant de retard.

Par ailleurs, la firme ne partage pas les conclusions de l’étude AppleStorm qui s’appuieraient en réalité sur une fonction introduite dès 2016 via SiriKit pour dicter des messages dans des apps tierces. Apple rappelle que cette fonction a toujours été encadrée par la politique de confidentialité de Siri et n’a pas été modifiée avec l’arrivée d’Apple Intelligence.

Enfin, la firme de Cupertino insiste sur le fait que Private Cloud Compute a été pensé pour garantir qu’aucun tiers – pas même Apple – ne puisse consulter vos requêtes ni les réponses générées.

Concrètement, lorsqu’un utilisateur sollicite Apple Intelligence, l’iPhone détermine si la requête peut être traitée localement. Si la tâche requiert davantage de ressources, Private Cloud Compute prend le relais. Dans ce cas, les données transmises ne sont jamais conservées ni accessibles par Apple, et elles sont effacées aussitôt la réponse délivrée.

Cette logique de confidentialité s’applique également à l’intégration de ChatGPT. L’activation se fait uniquement sur choix de l’utilisateur, dans les réglages, et chaque envoi de requête ou de document nécessite une confirmation explicite. De plus, par défaut, il est possible d’utiliser ChatGPT sans compte : aucune donnée d’identification Apple n’est transmise à OpenAI, qui ne peut pas exploiter ces requêtes pour l’entraînement de ses modèles.

Sur le papier, le cadre est robuste. Mais il y a un « mais ».

Il faudra attendre pour la révolution de Siri sous perf d'IA © Shutterstock

D’abord, aucun tableau de bord clair ne permet à l’utilisateur de savoir précisément quelles données partent, quand, et vers où. Ensuite, la frontière entre Siri classique et les fonctions d’Apple Intelligence reste floue : dans la pratique, les deux se mélangent et rendent impossible toute désactivation précise. Enfin, certains partages de contexte (apps actives, musique en cours, etc.) semblent disproportionnés au regard de la demande initiale.

Bref, Apple a une architecture solide, mais pèche encore côté transparence et principe de minimisation — deux piliers pourtant essentiels à la confiance.

Que faire concrètement pour limiter les fuites ?

Pas besoin de jeter l’iPhone par la fenêtre. Mais quelques gestes simples permettent de reprendre la main.

  • Allez dans Réglages > Siri & Recherche : désactivez Siri pour les applis sensibles, coupez l’apprentissage sur certaines apps, et limitez la localisation précise quand ce n’est pas nécessaire (la météo peut très bien se contenter d’un code postal).
  • Vérifiez les paramètres de l’extension ChatGPT : fonctionne-t-elle sans consentement explicite ? Si oui, revoyez ça.
  • Pour les tâches basiques (calculs, conversions, météo), utilisez directement les apps concernées, sans passer par Siri.

Côté entreprises, le réflexe doit être plus technique :

  • Filtrage réseau : bloquez certains domaines comme guzzoni.apple.com ou *.smoot.apple.com, sans casser les fonctions critiques.
  • Mettez en place une politique d’usage claire autour d’Apple Intelligence : qui peut l’utiliser, dans quelles conditions, sur quels types de postes ?
  • Et surtout, documentez les effets des blocages pour éviter les mauvaises surprises métier.

L’idée n’est pas d’interdire l’IA, mais d’en cadrer les usages intelligemment.

Apple fait un vrai travail pour concilier IA et vie privée. Mais AppleStorm le montre bien : entre les ambitions techniques et la réalité terrain, il reste du boulot.

Le vrai défi, ce n’est pas l’architecture. C’est la visibilité. Celle que l’utilisateur n’a pas encore vraiment, mais qu’il réclame de plus en plus. Et vous ? Avez-vous déjà pris les devants et modifié vos réglages Siri ou laissé les valeurs par défaut ?