Intel annonce ses processeurs Ice Lake Xeon Scalable

07 avril 2021 à 16h34
10
Crédit : Intel
Crédit : Intel

Les processeurs Xeon Scalable « Ice Lake » de troisième génération pour serveurs sont officiels. Intel a misé sur le passage au 10 nm et sur l'IA pour se démarquer de la concurrence.

Intel a officiellement dévoilé ses nouveaux processeurs Xeon Scalable de troisième génération, nom de code Ice Lake. Dédiés aux serveurs, ils viennent se positionner en face des processeurs AMD Epyc de troisième génération récemment présentés.

Intel progresse enfin sur la finesse de gravure

L'une des grandes attractions de ces Xeon Scalable « Ice Lake » est le passage à une finesse de gravure de 10 nm, contre 14 nm sur les anciens modèles. Intel annonce un gain de performances de 46 % en moyenne sur les charges de travail standard pour un data center.

Le fondeur américain explique également que cette génération de processeurs offre des performances jusqu'à 2,65 fois supérieures en moyenne par rapport aux systèmes vieux de cinq ans.

« Notre plateforme évolutive Intel Xeon de 3e génération est la plus flexible et la plus performante de notre histoire, conçue pour gérer la diversité des charges de travail », commente Navin Shenoy, Vice-président de la division Data Platforms d'Intel.

Le focus sur l'IA

Ces processeurs Xeon Scalable 2021 sont équipés jusqu'à 40 cœurs. La plateforme Ice Lake supporte jusqu'à 6 téraoctets de mémoire système, jusqu'à 8 canaux de mémoire DDR4-3200 et jusqu'à 64 lignes PCIe Gen4 par socket.

Intel a insisté sur les capacités en intelligence artificielle et évoque des performances supérieures de 74 % en la matière par rapport à l'ancienne génération grâce à des optimisations aussi bien matérielles que logicielles. Ces comparatifs fournis par les marques elles-mêmes sont toujours à prendre avec des pincettes, mais Intel assure également que les Intel Xeon de troisième génération sont jusqu'à 1,5 fois plus rapides que les Intel Xeon selon un protocole de tests regroupant 20 charges de travail populaires liées à l'IA.

Pour terminer, Intel signale des améliorations en termes de sécurité ainsi que pour les tâches de chiffrement des données et des transactions, promettant d'assurer un niveau de protection optimal sans impacter les performances du serveur ou le temps de réponse.

Source : Intel

Alexandre Schmid

Gamer et tech enthusiast, j’ai fait de mes passions mon métier. Diplômé d’un Master en RNG sur Hearthstone. Rigole aux blagues d’Alexa.

Lire d'autres articles

Gamer et tech enthusiast, j’ai fait de mes passions mon métier. Diplômé d’un Master en RNG sur Hearthstone. Rigole aux blagues d’Alexa.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (10)

neaufles
Il était temps qu’ils rattrapent un peu de leurs retards, tout cela est bon pour la concurrence et la baisse des prix.<br /> Encore un petit effort pour réussir à côtoyer le sommet en 7 et 5 nm.
blueamrtini
Je ne me rappelle pas un tel gain annoncé depuis longtemps chez Intel, surtout si les routines de calculs de tenseurs voient un gain tel qu’annoncé.<br /> Par contre, je me demande de quelle façon ces performances vont varier si on utilise autre chose que TensorFlow.
Metaphore54
On va avoir de belles performances avec Alder Lake si on a les mêmes différences de performances coté grand public.
pascal16
«&nbsp;…jusqu’à 2,65 fois supérieures en moyenne par rapport aux systèmes vieux de cinq ans.&nbsp;» Heu, on est largement en dessous de la loi de Moore si ce n’est pas une performance par watt ou par coeur, sans référence à ce qu’il teste, c’est un chiffre creux.
Doss
La loi de Moore est obsolète depuis bien longtemps Même Gordon Moore le disait que ça tiendrait pas sur le long terme cette «&nbsp;règle&nbsp;».
blueamrtini
La loi de Moore parle du nombre de transistors. Elle est encore d’actualité, et même explosée si on considère les GPU.
tfpsly
Non, la «&nbsp;loi&nbsp;» de Moore est toujours bien respectée.<br /> 1920×1421 505 KB
mamide
Les GPUs évoluent plus rapidement que les CPUs c’est normal !!!
sandalfo
Oui avec les GPU la loi de Moore continue d’avancer. Avec les A14 en 5nm aussi.<br /> Le dernier GPU nVidia présenté comptera 100 milliards de transistors.<br /> C’est Intel qui patauge avec son 14nm++ là ils sont enfin passés au 10nm pitch équivalent 7nm TSMC. TSMC est sur le 5nm, 5nm + en mai pour le A15 d’Apple. Et la suite est en route. L’EUV aura finalement empêché la loi de Moore de s’arrêter cette fois. Après le 3nm, 2nm, 1nm<br /> Justement, un nm c’est la taille d’une molécule d’eau. Et 0,1nm le diamètre d’un atome de silicium qui constitue nos semi-conducteurs. On se rapproche donc des limites de la matière, c’est de plus en plus difficile d’avoir un signal clair dans nos composants. Reste à voir jusqu’où on ira, avec quels matériaux et si cette étrange prophétie de Gordon Moore continuera à se réaliser.
sandalfo
A propos du DL et ML. Ce n’est pas plus rentable d’exécuter l’apprentissage des réseaux de neurones avec des GPU plutôt qu’avec des Xeon ? Ampere notamment a des Tensor Cores en masse optimisés pour les calculs matriciels sur tous les types de variables (INT8, FP16, FP32, etc.) et les performances en TeraFlops sont assez incroyables. Est-ce qu’un Xeom Ice Lake peut s’aligner face à des archi aussi massivement parallèles ? la faiblesse des CPU c’est qu’ils sont généralistes alors que les GPU sont optimisés pour le calcul matriciel massivement parallèle. Enfin 40 cores chez Intel ou 64 chez AMD c’est aussi bien parallèle vous me direz.
blueamrtini
Oui dans l’absolu le GPU se prête mieux au DL, mais il faut déjà avoir le matériel. Ça coûte plus cher d’avoir du matériel dédié que généraliste. En environnement serveur cela demande des compétences supplémentaires. À moins d’être dans un métier se limitant à l’établissement de modèles, la question de l’investissement par rapport au temps d’attente sur une tâche spécifique se pose. Surtout que les prix s’envolent pour les cartes avec beaucoup de mémoire.<br /> Perso faire un grid brute force réparti sur une grappe de serveurs généraliste me va très bien, cela me laisse le temps d’avancer sur les pré et post traitement
Voir tous les messages sur le forum
Haut de page

Sur le même sujet