Bientôt des SSD de plus de 100 To grâce à la nouvelle NAND 176 couches de Micron

Nathan Le Gohlisse
Spécialiste Hardware
10 novembre 2020 à 15h55
31
SSD NVMe et SATA © Nerces
© Nerces pour Clubic

L'Américain Micron vient de présenter sa nouvelle génération de puces mémoire 3D NAND à 176 couches. Cette dernière devrait permettre des latences largement réduites en lecture et en écriture, tout en ouvrant une porte vers des SSD nettement plus généreux en stockage… à des tarifs réduits.

C'est une latence réduite d'un tiers en lecture et en écriture par rapport à la précédente génération de mémoire NAND 96 couches à grille flottante que nous promet Micron avec sa nouvelle cuvée de puces mémoire 3D NAND 176 couches. Une belle perspective pour le fabricant américain, qui brandit ainsi une technologie améliorée de 37% par rapport à la concurrence des puces mémoire BiCS5 à 112 couches proposées par le duo Kioxia/Western Digital, rapporte TechRadar.

Vers des SSD plus rapides, plus résistants et moins coûteux ?

Micron explique aussi avoir réussi à mettre au point un die 30% plus petit que ce que proposent ses concurrents, capable d'atteindre le seuil de 1 600 MT/s (1,6 gigatransferts par seconde) en débit sur un bus Open NAND Flash Interface (ONFI). Une amélioration à deux chiffres, note là aussi TechRadar, tout en indiquant que ces puces 3D NAND 176 couches sont d'ores et déjà en production de masse… et que les livraisons ont elles aussi commencé, notamment auprès de la filiale Crucial de Micron.

Comme l'explique le média spécialisé, cette annonce devrait permettre à l'utilisateur final de profiter sous peu de SSD plus efficaces, plus rapides, plus petits, mais aussi et surtout plus abordables. Pour les data centers, cette avancée est également majeure puisqu'elle devrait permettre une meilleure durabilité des SSD dans un contexte d'utilisation intensive.

Le marché des serveurs ciblés dans un premier temps

Dans un premier temps, c'est d'ailleurs le marché des serveurs que Micron pourrait chercher à cibler en priorité pour y faire saine concurrence à certains modèles de SSD comme l'ExaDrive DC de 100 To, le seul du marché à proposer cette capacité, pour un tarif avoisinant les 40 000 dollars. Nimbus Data, la société derrière ce monstre propose aussi un ExaDrove NL de 64 To contre la modique somme de 10 900 dollars. Ces deux modèles utilisent respectivement de la mémoire SLC NAND 64 couches et TLC NAND 96 couches.

Avec ses puces 3D NAND 176 couches, Micron pourrait par exemple s'aventurer à proposer une alternative à 10 000 dollars pour 100 To de stockage. Nimbus Data aurait alors tout intérêt à revoir ses tarifs à la baisse. Autre catégorie de produits qui pourrait se trouver dans le collimateur de Micron : les HDD pour serveurs de géants comme Seagate, Toshiba ou encore Western Digital. Micron pourrait en effet proposer des SSD 3,5 pouces à prix attractifs… suffisamment pour rendre les disques durs obsolètes pour de bon.

Source : TechRadar

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
31
16
Schris
ca représente quoi 1,6 gigatransferts par seconde ?<br /> pourquoi ne pas parler comme d’habitude ? en G/s ? c’est quoi l’arnaque encore ?
Proutie66
C’est quoi l’arnaque ? Il y a pas d’arnaque. Seulement faut que t’en parle à personne.
Bombing_Basta
Comme l’explique le média spécialisé, cette annonce devrait permettre à l’utilisateur final de profiter sous peu de SSD plus efficaces, plus rapides, plus petits, mais aussi et surtout plus abordables.<br /> Quid de l’endurance?<br /> 100To de SSD à_pas_cher mais jetable, pas sûr que ce soit un progrès.
Nmut
Le débit dépend du nombre de canaux. La vitesse des puces se compte en Gt/s, et le débit final dépend de l’architecture de ton disque et du contrôleur, c’est comme ça! <br /> Ce n’est pas parce que tu ne connais pas que c’est une arnaque. Fait une petite recherche Bing/Google/DuckDuck avant de crier au scandale.
Nmut
Ils ont plus de place pour faire du wear levelling, donc ça ne m’inquiète pas trop… Jusqu’à maintenant, les avancées dans les contrôleurs et dans la conception des cellules compensent à peu près la perte de durée de vie par cellule due à la miniaturisation et/ou au nombre de bits par cellule, il n’y a pas de raison que cela change brutalement.
Schris
je joue la provoc en espérant un éclaircissement mais quedal, j’ai bien fait une recherche avant de poster et je tombe toujours sur du Gbps, donc si 1,6 gigatransferts par seconde représente 1.6Gbps ce n’est vraiment pas beaucoup, dsl internet n’en dit pas plus hein
DUM
Il faut l’article en entier les SSD seront plus durable
buitonio
Si le transfert concerne 8 bits en parallèle, le débit sera de 1,6 Go/s, si c’est 16 bits en parallèle, le débit sera de 3,2 Go/s, etc.
MisterG55
ça fait un peu Goldorak
Nmut
Ah crotte. C’est vrai que l’on ne trouve pas grand chose! <br /> Rapidement, la performance des mémoires se comptent en Gt/s car la fréquence ne suffit pas à définir le vitesse (la DDR4 transfert 2x pus d’infos que la DDR3 pour la même fréquence). D’ailleurs par abus de langage (ou par marketting) on a de la DDR4 à 3200 Mhz alors que c’est de la DDR4 à 3200 Mt/s et cela ne donne pas le débit qui est lui de 25Go/s.<br /> Pour l’exemple complet de la DDR4 3200: on a une fréquence de bus de 1600Mhz, 2 bits par cycle d’horloge, 3200 Mt/s, un bus de 8 bits et un débit de 25.6 Go/s (1600 * 2 * 8).<br /> C’est plus clair (je ne suis pas un spécialiste de la vulgarisation… :-D)?<br /> Edit: @buitonio est plus succint et probablement plus clair que moi!
cas_per
bonjour,<br /> un groupe de donnée (8bits pour faire un octet) n’est pas la seule information transféré au SSD il y a aussi l’adresse ou elle doit être stocker ce groupe d’information est un transfert, avec le début/fin et la correction d’erreur de la trame ! donner la vitesse uniquement des données utile n’est pas suffisant pour en déduire les performances, c’est pour cela qu’on parle en transfert, depuis déjà un certain temps toute les données transite en sériel et avec l’ajout de nombreuse vois , correction d’erreur, etc etc et bien sur augmentation de la vitesse du bus on arrive a des performances importante ! quand on parle en baud / s ou octet / s (bit /s) on ne parle que des données utiles mais on ne parle pas de toutes les données transféré qui est donc fortement influencé par le bus et le contrôleur et la rapidité des nands de plus, les données sont envoyé en séries sur le bus mais ne sont pas stocker en série donc il y a une différence entre la données envoyé, celle reçut et celle stocker contrairement à un disque dur conventionnel qui lui stocke les données comme elles arrivent (en série).<br /> je suis loin d’être un expert mais bon j’ai compris certaine choses, j’espère que sa t’aidera a mieux comprendre
Wifi93
Les DD mécaniques finiront par disparaitre au profit des SSD et ce n’est pas plus mal. Que d’économie d’énergie à la clef.
cas_per
les tubes à vide ont été supplanté par les transistors, plus économique plus performant, moins couteux, plus pratique, mais aujourd’hui certain mélomane ne jure que par la chaleur d’écoute du tube à vide,<br /> je veux dire que dans certain domaine certaine technologie peuvent être dépassé mais reste indétrônable<br /> pour le moment l’aspect financier reste au profits des disques dur mécanique pour une même capacité et pour de la simple sauvegarde ou stockage à long terme, les performances ne sont pas une priorité,<br /> Edit :la preuve en est, certaine société continue encore aujourd’hui à faire leur sauvegarde sur bande !
SlashDot2k19
Super, l’avenir est prometteur avec les SSD.<br /> RIP les disques dur mécaniques, sans regrets !
cas_per
pour la mémoire il y a une stratégie électronique différente:<br /> la mémoire de base est le SDRAM ou sur un cable transitait une information !<br /> puis est apparu la DDR = double data rate<br /> en faite par un décalage de phase on arrivait a faire passé 2 informations sur un cable<br /> a chaque version de ddr on fait passé une information de plus sur un câble on augmente donc le débit d’autant, mais<br /> il faut faire attention le transfert est tellement rapide qu’il y a presque a chaque fois des parasitages d’une ligne par la ligne d’à coté, grâce au bit de parité on sais (a peut près) si la donné est arrivé complète et non dégrader si ce n’est pas le cas un nouvelle envois est demander, pour évité ce ralentissement (presque systématique) sur les serveurs on envois les données en double avec des algorithme complexe permettant de corrigé la donnée toute seule la mémoire est donc plus lente en donnée utile mais plus performante puisque ne demande pas de renvois systématique des données on appel ce système le ECC ce qui impose un micropocesseur spécialisé sur la ram pour décodé les données ce qui la rend beaucoup plus chère
Bombing_Basta
J’ai lu, et j’en conclus qu’une annonce, ne fait pas la réalité, un SSD «&nbsp;durable&nbsp;», une cellule éphémère, le juste milieu j’attends de voir.<br /> La durabilité des SSD n’en fait pas moins que baisser depuis la «&nbsp;mort&nbsp;» du SLC.
Bombing_Basta
L’avenir est aussi très tortueux, si le SSD n’est pas alimenté pendant un certain temps, il perd simplement ses données…<br /> SlashDot2k19:<br /> Super, l’avenir est prometteur avec les SSD.<br /> RIP les disques dur mécaniques, sans regrets !<br /> Pour du stockage pur à «&nbsp;froid&nbsp;», pas forcément…
rexxie
Quelqu’un peut expliquer «&nbsp;grille flottante&nbsp;» svp ?
cas_per
le SLC n’est pas mort<br /> on stock un bit d’information sur une cellule il faut donc plus de cellule pour en faire une capacité utile<br /> le MLC permet donc de stocker plusieurs bit sur une cellule il en faut donc moins que des SLC ce qui rend le support moins couteux mais les SLC reste plus rapide de meilleurs endurance, mais pour le particulier le cout reste un critère important c’est pour cela qu’avec l’augmentation des performance les MLC sont prioritaire, mais pour le domaine professionnel, les SSD SLC reste la très grande majorité
cas_per
dans un SSD on utilise la propriété d’un transistor a retenir l’énergie d’une de ces broches (la grille) pour conservé l’information sauf que en cas d’empilement le conservation d’énergie d’un transistor va influencé le transistor du dessus (ou du dessous) , pour évité sa on utilise une deuxième grille (en dessous en parrallèle) sur ce transistor pour pérénisé la donné en cas d’empilement, cette deuxième grille est appelé grille flottante.<br /> edit : mémoire non volatile plutôt que SSD dans mon explication
rexxie
Ah merci! Donc 2 grilles, mais pourquoi «&nbsp;flottante&nbsp;» ? Parce que la donnée peut être sauvegardée sur l’une ou l’autre indifféremment?
cas_per
flottante parce qu’elle n’est pas obligatoire (pour un usage standard) et qu’elle fais la même chose que celle déjà existante,<br /> ces grilles sont utilisé en même temps style prise multiple mais sur la deuxième l’intensité est moins importante donc influence moins la grille d’à coté (sur l’autre transistor) et pour la lecture on fait la moyenne (électrique) des deux,<br /> un transistor possède 3 broches et pour qu’il soit fonctionnel il faut suffisament d’énergie sur la broche de commande (la grille) mais là dans cette usage on a pas besoin des autres broches donc on peut ce permettre d’avoir une deuxième grille avec une intensité réduite qui ne mettra pas en marche les autres broche du transistor<br /> les 3 broches d’un transistor<br /> le drain<br /> la grille<br /> la source<br /> quand la grille est activé elle permet le passage électrique entre le drain et la source,<br /> comme ce sont des transistor particulier qu’on appel transistor à effet de champ<br /> sur un transistor électronique conventionnelle (non gravé comme mémoire ou processeur) (NPN ou PNP)<br /> ces 3 broches s’appelle<br /> base, émetteur, collecteur
cas_per
il y a d’autre stratégie comme celle d’intel pour gérer les empilements, une couche de transistor est graver puis on applique un séparateur (isolant) pour graver une nouvelle couche de transistor, chez intel il joue sur la taille et efficacité de l’isolant pour ne pas que les autres couche soit influencé, la solution de micron permet de réduire la taille de l’isolent et donc d’augmenté le nombre de couche pour ne pas obtenir un substrat trop épais et donc couteux mais chaque transistor graver sont plus compliquer à cause de cette deuxième grille et donc demande une meilleur maitrise de la gravure,<br /> chez intel, les mémoires qui utilise des transistors empilé s’appel la 3D XPOINT
cas_per
j’espère que ma vulgarisation est compréhensible
rexxie
Oui, pour un pure profane je ne peux dire, mais j’ai une base en électronique (vieille de 30 ans) et je nage dans l’informatique, alors très clair comme explication.
cas_per
il faut signalé que l’empilement ce fais majoritairement sur des topologies de transistor «&nbsp;simple&nbsp;» comme la mémoire parce qu’elle est identique partout donc relativement simple à gérer en grande quantité, ce qui ne ce produit pas sur les transistors d’un processeur ou quasiment toutes les zones sont particulière sauf peut être la mémoire cache mais ce serais plus compliqué que la majorité des transistors soit unique et n’empilè qu’une petite zone,<br /> c’est du design architectural, mais a des dimensions de l’ordre du nanomètre,<br /> quand on parle de gravure on ne donne pas la taille du transistor mais de la finesse du masque utilisé pour projeté la lumière (aujourd’hui) de l’uv extrême sur une surface conductrice ou isolante en fonction de la couche que l’on grave qui va ce désagrégé (photo sensible à la longueur d’onde projeté par l’intermédiaire du masque) au contacte de ces uv pour formé la surface gravé<br /> un wafer est une surface ronde de silicium le plus pur possible et on applique dessus des couches de vaporisation d’élément conducteur ou isolant photosensible en fonction d’un masque, à chaque couche sont masque, la taille du wafer est toujours la même adapter à la machine qui va graver, sur cette surface est graver des centaine d’élément mais le masque servant de loupe, ceux au centre ont une précision supérieur, et donc plus susceptible de monter en fréquence parce que cette meilleur qualité de finesse provoque moins de perte par effet joule donc chauffera moins quand il monte en fréquence, ces wafer on quasiement à chaque fois le même tarif divisé par le nombre d’élément graver sur ce wafer avec les éléments centraux plus onéreux que ceux à la périférie, donc le nombre de passage devant un masque et donc l’augmentation d’un nombre de couche n’augmentera pas de manière significative le cout de l’élément graver sauf le temps et les probables déchet du a une mauvaise exposition du masque, puisque il faut un minimum de passage pour une couche et si on multiplie les couche on multiplie aussi le risque d’erreur, à ces dimension les fuites de courant sur un transistor sont problématique et c’est principalement ce qui cause une chauffe exécive du composant d’autant plus avec l’empilement, parce que la couche du dessus va retenir la chaleur généré par la couche du dessous ce qui rend l’élaboration des éléments séparent les couches encore plus complexe
j_co
Et bien pour moi, un disque de 8 To SSD à moins de 200€, même avec un débit en lecture/écriture de 250 Mo/s, ça m’irait très bien
cas_per
ptit complément
qadddd
«&nbsp;Top génial d’avoir une telle capacité, maintenant il serait temps de penser à mettre devant une interface un peu plus robuste, voire doublée&nbsp;» dit celui qui a perdu pas mal de data, pas encore backupées, car trop confiant dans cette électronique Sandisk qui marchait bien le soir et n’existait plus le lendemain matin, sans jamais avoir daigné prévenir d’une quelconque anomalie)<br /> Et va backuper 100To car il est bien connu que tu tu as de place, plus tu en mets …
CDT
ben c’est de l’architecture. mais tout va dependre de ton Controller. Regarde cette page tu y verras un diagramme d’architecture de haut niveau pour un controleur NAND.<br /> https://www.design-reuse.com/sip/nand-flash-controller-ip-24729/<br /> en fait ce que tu doos retenir c’est que ton controleur de SSD ou autre qui veut acceder a de la NAND memory, utilise l’interface 8/16 bits ONFI. qui dans sa version 4.1 support du debit jusqu’a 1.6 Gt/s. pourquoi Transfert et pas Gbps tel qu’on connait? car il depend justement du type de donnees que tu veux transferer. 8 bits de donnee veux dire que tu peux aller jusqu’a environ 8x1.6=12 Gbps rt en 16 bits c’est 16x1.6= environ 25Gbps.<br /> ce que tu vois c’est par canal de communication…<br /> donc si ton controleur implemente plusieurs canaux alors tu multiplies ton debit par le nombre de canaux example 25Gbps x 2 canaux tu arrives a 50 Gbps.<br /> attention ca reste beaucoup de theorie. car quand tu as des canaux en parallele tu accedes a des memoires differentes et donc il te faut tout un software pour gerer les erreurs. la recomposition des informations… qui peux affecter les perf au final mais pas le debit brute de lire l’info.<br /> mais bon j’espere que je t’ai donne un apercu suffisemment clair
Nicolas_Charlier
123
Voir tous les messages sur le forum

Derniers actualités

Idée cadeau | EcoSphere : un écosystème complet dans une sphère
La FTC porte plainte contre Microsoft dans le but de faire capoter le rachat d'Activision-Blizzard
USB-C obligatoire sur les smartphone : apparemment, rien ne presse pour l'UE...
Itinérance 3G entre Free et Orange : c'est vraiment reparti... et jusqu'en 2025
Game Awards 2022 : et le titre de Jeu de l'Année est décerné à...
Final Fantasy XVI : un trailer spectaculaire qui donne envie avec une date de sortie
Diablo IV : retour en Enfer confirmé pour cet été
Street Fighter 6 et Tekken 8 font parler les poings et frappent très fort !
De nouvelles exclusivités PlayStation arrivent sur PC
Hideo Kojima passe une tête aux Game Awards pour présenter son nouveau projet
Haut de page