IA : Amazon met le paquet sur Olympus, prêt à écraser tous ses concurrents, dont ChatGPT

Alexandre Boero
Par Alexandre Boero, Journaliste-reporter, responsable de l'actu.
Publié le 16 novembre 2023 à 18h22
Le logo Amazon, sur un smartphone © Matthew Nichols1 / Shutterstock.com
Le logo Amazon, sur un smartphone © Matthew Nichols1 / Shutterstock.com

Amazon développe un modèle de langage qui serait à ce stade deux fois plus puissant que GPT-4, celui qui fait tourner le célèbre ChatGPT.

La bataille au modèle de langage étendu (LLM) le plus fort du monde est lancée, et Amazon compte bien la remporter. Le géant du e-commerce investit à tour de bras dans la formation d'Olympus, qui se destine à concurrencer OpenAI et son ChatGPT, mais aussi Bard et Grok. Amazon aime et utilise déjà l'IA générative : il lui faut désormais son propre modèle.

Un modèle conversationnel made in Amazon à 2000 milliards de paramètres

L'information, révélée par nos confrères américains de The Information, fait état d'un modèle de langage aux caractéristiques particulièrement impressionnantes. Le LLM conversationnel pour l'instant baptisé Olympus comporterait pas moins de deux billions de paramètres, soit 2 000 milliards.

À ce stade, le chiffre ne veut peut-être pas dire grand chose, mais il témoigne de l'ambition de la firme fondée par Jeff Bezos : elle veut mettre au point un modèle conversationnel doté de capacités deux fois plus grandes que son principal concurrent, GPT-4, à ce jour le plus avancé de l'entreprise OpenAI. Ce dernier compte 1 000 milliards de paramètres.

Un modèle de langage permet, rappelons-le, à des robots conversationnels (comme Google Bard ou ChatGPT) de répondre à des requêtes en langage naturel, en prenant en compte un certain nombre de paramètres.

L'intelligence artificielle, actualité majeure de la Tech en 2023 © Peshkova/ Shutterstock
L'intelligence artificielle, actualité majeure de la Tech en 2023 © Peshkova/ Shutterstock

Les équipes d'Alexa à la manœuvre

L'idée d'Amazon est de mettre à profit le futur Olympus pour propulser de nouvelles fonctionnalités, que ce soit pour ses solutions Amazon Web Services (la filiale cloud de l'entreprise), avec des clients professionnels d'ailleurs très demandeurs, ou ses activités de e-commerçant, sans oublier une amélioration de ses appareils tournant sous Alexa, l'assistant personnel intelligent de la firme.

Figurez-vous que le projet Olympus est justement dirigé par Rohit Prasad, qui n'est autre que l'ancien responsable d'Alexa. Son statut de patron scientifique de l'IA chez Amazon lui permet de s'entourer des chercheurs qui travaillaient avec lui sur l'intelligence artificielle d'Alexa, et de ceux bossant déjà sur les modèles d'entraînement d'Amazon.

Amazon multiplie les initiatives en matière d'intelligence artificielle, comme en témoigne son incursion dans la pépite californienne Anthropic, sur laquelle Google a aussi mis le grappin. Face à la concurrence des autres géants de la Tech, en n'oubliant évidemment pas Microsoft, derrière OpenAI, Amazon veut tirer son épingle du jeu et devenir propriétaire d'une solution d'IA qui fera date, et qui deviendra une référence.

Par Alexandre Boero
Journaliste-reporter, responsable de l'actu

Journaliste, responsable de l'actualité de Clubic. En soutien direct du rédacteur en chef, je suis aussi le reporter et le vidéaste de la bande. Journaliste de formation, j'ai fait mes gammes à l'EJCAM, école reconnue par la profession, où j'ai bouclé mon Master avec une mention « Bien » et un mémoire sur les médias en poche.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (5)
pinkfloyd

alors oui je confirme :
Le LLM conversationnel pour l’instant baptisé Olympus comporterait pas moins de deux billions de paramètres, soit 2 000 milliards.

Qui a définis ces paramètres ? ils servent a quoi, qu’est ce qu’on appel un paramètre ( metre un verbe après un sujet ? ) car clairement ce n’est pas un humain qui les configure, ni même les 1000 milliards de chatGPT

Donc clairement, tant que pas d’explications, ces phrases ne veulent rien dire…

Hikarunogo

Bart a dit la même chose. Mais il est loin d’égaler ChatGPT pour résoudre mes codes informatiques. Il se contente de donner quelques pistes.

tfpsly

Non, un paramètre est un des poids de chaque neurones. Nbr paramètres = Nbr neurones * nombre moyen d’entrée des neurones. En gros ça revient au nombre de multiplications à faire pour produire une sortie.
Un paramètre ne représente pas un simple mot ou un concept (quoi que dans la couches d’entrée, on assigne à chaque mot un nombre, id du mot dans un dictionnaire plus un indice indiquant sa position dans le texte).

EDIT - et ce sont ces paramètres qui sont modifiés lors des entraînements de réseau de neurones, par back propagation et co.

pinkfloyd

tfpsly

ah bah voila, LA c’est plus clair, merci !

Kriz4liD

Bard est plus fort dans d autres domaines, sur la traduction et l explication d un text par exemple , mais effectivement chatgpt est tres fort pour construire et corriger des bouts de codes !