🔴 French Days en direct 🔴 French Days en direct

Apple réussira-t-elle à marier intelligence artificielle et protection des données personnelles ?

18 avril 2024 à 15h07
5
Un modèle de langage local privilégié par Apple © Pierre Crochart pour Clubic
Un modèle de langage local privilégié par Apple © Pierre Crochart pour Clubic

Apple souhaiterait proposer, avec iOS 18, des fonctionnalités d'intelligence artificielle fonctionnant localement sur l'iPhone, afin de limiter la collecte de données personnelles.

Apple veille à ce que le respect de la vie privée soit au cœur de ses différents produits et services. Le constructeur met un point d'honneur à limiter la collecte des données réalisées par ses propres applications, mais aussi par les logiciels tiers, ce qui n'est pas forcément du goût des géants de la tech comme Meta. L'arrivée de l'intelligence artificielle pose pourtant un défi au constructeur de Cupertino. Les modèles de langage, comme ChatGPT d'OpenAI ou Gemini chez Google, se basent sur des serveurs pour assurer le traitement des opérations et l'envoi d'une réponse rapide aux utilisateurs. Apple chercherait à « faire différemment », avec un modèle de langage propre et fonctionnant de manière locale sur ses prochains appareils.

Apple miserait sur des fonctionnalités limitées et traitées sur l'appareil

Pris de vitesse par Microsoft et Google, Apple souhaiterait accélérer dès cette année dans le domaine de l'intelligence artificielle. La prochaine version du système d'exploitation de l'iPhone, iOS 18, devrait ainsi proposer plusieurs fonctionnalités liées à l'IA, intégrées aux services maison de la marque. Apple développe aussi, depuis plusieurs années, son propre modèle de langage, Ajax.

Mark Gruman, de Bloomberg, nous apprend ces jours-ci qu'Apple ne souhaiterait pas pour autant renier ses grands principes, et proposerait des services d'intelligence artificielle fonctionnant de manière locale sur l'iPhone. Au lieu d'utiliser des serveurs distants, ce seraient les processeurs de la marque qui seraient mis à contribution pour apporter une réponse rapide et cohérente aux utilisateurs, sans faire transiter leurs requêtes ou leurs informations personnelles.

Un usage local permettrait également d'éviter les réponses parfois farfelues obtenues depuis le web et source de nombreuses polémiques. Les fonctionnalités permises aujourd'hui par un traitement on-device sont certes plus limitées, mais évitent les problèmes rencontrés par ChatGPT ou Gemini, avec des informations hors de propos, mal sourcées ou incohérentes.

Siri pourrait enfin gagner en intelligence dans les prochaines semaines © Wachiwit / Shutterstcok
Siri pourrait enfin gagner en intelligence dans les prochaines semaines © Wachiwit / Shutterstcok

Une arrivée tardive, mais prudente d'Apple sur le terrain de l'IA générative

À en croire Mark Gurman, iOS 18 n'intégrerait que des fonctionnalités limitées en matière d'intelligence artificielle. On peut s'attendre à des ajouts dans Messages, pour faciliter la composition des messages, mais aussi dans Siri pour rendre l'assistant vocal plus utile au quotidien, ainsi que le moteur de recherche interne. Photos pourrait également bénéficier d'outils de retouche avancés.

Si les travaux sur Ajax avancent, Apple serait consciente de son retard et négocierait en parallèle avec OpenAI et Google, pour utiliser leurs modèles de langage dans iOS. La rumeur voulait que le constructeur ait des discussions sérieuses avec le moteur de recherche pour l'intégration de Gemini, mais rien ne serait encore acté à ce stade, et une arrivée dans iOS 18 semble aujourd'hui compromise.

En misant sur son modèle de langage, et avec une utilisation uniquement locale, Apple pourrait ainsi avancer ses pions et convaincre ses utilisateurs, sans rogner sur ses grands principes relatifs à la confidentialité des données de ses clients.

Les meilleurs iPhone en 2024 testés par nos experts
A découvrir
Les meilleurs iPhone en 2024 testés par nos experts
18 avr. 2024 à 12:29
Comparatif

Source : Apple Insider

Mathieu Grumiaux

Grand maître des aspirateurs robots et de la domotique qui vit dans une "maison du futur". J'aime aussi parler films et séries sur les internets. Éternel padawan, curieux de tout ce qui concerne les n...

Lire d'autres articles

Grand maître des aspirateurs robots et de la domotique qui vit dans une "maison du futur". J'aime aussi parler films et séries sur les internets. Éternel padawan, curieux de tout ce qui concerne les nouvelles technologies.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (5)

Agalma
Il va falloir beaucoup de RAM sur l’IPhone et un processeur IA (NPU) très costaud. Je n’ai pas d’info sur le nœud TSMC du prochain IPhone 16. Un 3nm b où le même que le 15 ?
MattS32
Le NPU actuel des iPhone les plus performants est à 35 Tops, c’est du niveau d’une petite carte graphique (RTX 3050) et de l’ordre de 5 fois ce qu’est capable de faire un CPU sans unité spécialisé.<br /> Or pour un usage individuel, on arrive déjà à des résultats corrects avec certains LLM légers en les faisant simplement tourner sur un CPU.<br /> Et idem pour la RAM, des LLM légers et très spécialisés peuvent tourner sans nécessairement beaucoup de RAM, car ils n’ont pas forcément un très grand nombre de paramètres.<br /> Dans les IDE JetBrains par exemple, il y a maintenant la possibilité d’avoir de la complétion de ligne effectuée en local, avec un petit modèle d’à peine 100M de paramètres, qui tourne sur le CPU. Ça répond aussi vite que Copilot, peut-être un poil moins pertinent, mais tout a fait correct. Et très spécialisé, du coup limité à un seul langage par modèle. Et niveau RAM, ça a l’air de consommer entre 500 Mo et 1 Go.<br /> Google a aussi fait une version locale de Gemini pour les smartphones, il me semble qu’elle fait 3.5 milliards de paramètres (donc ça doit consommer de l’ordre de 4 Go de RAM si les paramètres sont en 8 bits… mais peut-être aussi que ça passe en 4 bits…), et ça tourne sur le NPU qui fait 27 Tops, donc moins que celui des meilleurs iPhone.<br /> Et en dehors des LLM, il y a aussi d’autres fonctions qui peuvent être faites en local sans trop de difficultés. Sur les Pixel 8, c’est déjà le cas pour certaines fonctions de retouche photo basées sur l’IA par exemple.
tfpsly
Gemini Mini tourne déjà sur des téls Android avec des CPU un peu moins puissant. Et il est probable que l’app Camera utilise déjà des réseaux de neurones tournant en local. Au moins depuis l’A14 des iPhones 12, il ne devrait pas y avoir de pb pour faire tourner des réseaux neuronaux localement.
Pernel
Chez Samsung on a le choix entre du local ou du live, de mon côté, ça reste en local.
sebstein
Les fonctionnalités permises aujourd’hui par un traitement on-device sont certes plus limitées, mais évitent les problèmes rencontrés par ChatGPT ou Gemini, avec des informations hors de propos, mal sourcées ou incohérentes.<br /> Quel rapport ? L’entraînement de l’IA se fait aussi en amont avec, potentiellement, les mêmes sources de données.<br /> Si une même IA est entraînée avec le même set de données, elle fera les mêmes erreurs, avec les mêmes biais qu’elle soit locale ou déportée.<br /> La seule différence, c’est que les prompts ne sont plus envoyé vers un serveur extérieur.
MattS32
sebstein:<br /> Si une même IA est entraînée avec le même set de données, elle fera les mêmes erreurs, avec les mêmes biais qu’elle soit locale ou déportée.<br /> De manière générale, il faut que le dataset soit dimensionné correctement par rapport au modèle. Un dataset trop petit par rapport au modèle donnera des résultats complètement foireux, mais un dataset trop grand aussi (mois grave quand même qu’avec un dataset trop petit !)… Tu finis par avoir un phénomène de «&nbsp;surentrainement&nbsp;», et tu n’as plus rien de valable qui sort de ton modèle. Un peu comme un mec qui ferait un burn out.<br /> Et un dataset plus petit sera en général mieux maitrisé sur la qualité des sources. Quand tu fais un petit dataset, tu vas plus t’orienter vers des encyclopédies et des livres reconnus, pas vers une capture massive de Twitter (bien que bien sûr ça reste possible de baser un petit dataset prioritairement sur Twitter si t’as envie de faire une IA débile )<br /> Et le fonctionnement en local ouvre aussi la porte à a une grosse utilisation du RAG, une technique qui consiste à enrichir le prompt avec des données issues d’une base de documents, en prenant les documents qui semblent proches du prompt original. Un modèle local offre la possibilité de faire un mécanisme de RAG qui aurait ingurgité tous tes documents locaux, tous tes mails récents, etc… Ce qui donnera généralement des réponses plus pertinentes et moins «&nbsp;hallucinatoires&nbsp;» à tes demandes, puisque ça sera beaucoup plus basé sur tes propres données.
Agalma
Merci Matt (et les autres) de ces explications.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet