Forum de discussion

SSD : la révolution du stockage

#1

http://img510.imageshack.us/img510/1750/titressd2.png

http://img18.imageshack.us/img18/8167/intelpostvillex25m2.jpg
http://img21.imageshack.us/img21/8953/newpcb.jpg

Technologie:

Le Solid State Drive ou SSD (littéralement Lecteur à Etat Solide en français), appelé parfois à tort Solid State Disk, est une unité électronique de stockage de données, constituée de mémoire flash. Ce nouveau lecteur est en passe de supplanter le disque dur traditionnel, existant lui depuis les années 1970, en tant qu’unité de stockage système. Celui-ci, étant donné les évolutions, ne semble néanmoins pas voué à éradiquer le disque dur classique mais à en devenir le complément incontournable pour stocker le système d’exploitation tandis que le disque dur sera cantonné à un rôle de stockage de fichiers volumineux.

  • * Mémoire Flash:

La mémoire Flash est une puce de mémoire qui, à la différence de la mémoire vive (DRAM), a la particularité de conserver les données en permanence après leur écriture, même en cas de non alimentation électrique.

Une puce de mémoire flash est composée de cellules de stockage dont le contenu est modifié (écriture ou effacement) sous l’effet d’une certaine tension électrique.

En simplifiant, les transistors utilisés dans la mémoire contiennent deux grilles, une de contrôle et une deuxième, appelée grille flottante, qui est en suspension dans un oxyde, le tout est placé sur un substrat qui contient deux électrodes.

http://img444.imageshack.us/img444/2104/structureflash8t158692gu5.jpg

Pour écrire une donnée, on doit faire passer un courant électrique (7 V) entre les deux électrodes (drain et source) et une tension plus élevée (aux environs de 12 V) dans la grille de contrôle. L’effet Fowler-Nordheim implique qu’une partie des électrons qui passent entre les électrodes va se déplacer vers la grille flottante, à travers l’oxyde. Une fois la grille saturée avec des électrons, elle devient isolante et est considérée comme un 0 binaire.

L’effacement d’une cellule s’effectue de la même façon, mais en faisant passer une tension négative dans la grille de contrôle. Les électrons se déplacent alors de la grille flottante vers le substrat. Une fois la grille flottante “vidée” de ses électrons, elle est considérée comme dans un 1 binaire.

Pour la lecture, c’est assez simple : il faut mesurer la résistance de la grille flottante, en faisant passer une tension faible (5 V) dans la grille de contrôle et dans une des électrodes. Si les électrons passent entre la grille de contrôle et l’électrode, la grille flottante n’est pas isolante, on a un 1 binaire. Si le courant ne passe pas, on a un 0 binaire. La lecture est donc plus rapide que l’écriture ou l’effacement, car on ne doit pas remplir ou vider la grille flottante avec des électrons.

Comparée à la mémoire vive, la mémoire flash a des temps d’accès inférieurs et ne supporte qu’environ 100.000 opérations d’écriture par cellule. Elle permet en revanche un maintien permanent des données.

Comparée au disque dur, la mémoire flash a l’avantage d’une consommation électrique très inférieure et de l’absence de pièces mécaniques introduisant de la fragilité. Elle a pour le moment le désavantage du coût par rapport au stockage magnétique.

  • * Mémoire NAND:

http://img134.imageshack.us/img134/58/32gbnand.jpg

La mémoire flash utilisée pour les SSD est la NAND développée par Toshiba en 1989.

La flash NAND est une mémoire de stockage qui utilise des transistors comme support.

  • La flash NAND et l’organisation en blocs:

La technologie NAND est de type séquentiel. La NAND travaille avec un bus série, en accès séquentiel. Il est impossible d’accéder directement à un bit en particulier, contrairement à la mémoire NOR. Pour accéder à une information précise, on doit charger entièrement une partie des données dans une petite mémoire RAM, et ensuite lire ce que l’on veut dans cette mémoire.

Dans un système classique (une mémoire de 2 Go par exemple) on va travailler avec des blocs de 128 Ko. Le bloc est divisé en 64 pages de 2 Ko. En réalité, une “page” fait plus que 2 Ko : on a 2048 octets accessibles, et 64 octets qui servent de contrôle (gestion ECC, etc.) La prochaine génération de mémoire flash va travailler avec des pages de 4 Ko. Les anciens systèmes (ou ceux de faible capacité) travaillent plutôt avec des pages de 512 octets et des blocs de 16 Ko.

Pour ce qui est de l’accès, on travaille en shadowing : le système accède en fait à une mémoire RAM qui contient les données demandées. On accède jamais directement aux données stockées dans la mémoire NAND. Le contrôleur s’occupe de gérer la copie de la page dans la mémoire en question et de la gestion des blocs.

Les opérations de lecture et d’écriture ne s’effectuent pas immédiatement à l’adresse demandée mais procèdent par blocs entiers d’adressage mémoire. La lecture est plus lente qu’avec une mémoire flash NOR (type de mémoire flash concurrente) mais en contrepartie, l’écriture est nettement plus rapide, la capacité de stockage plus élevée et les puces moins coûteuses à fabriquer.

  • Lecture sur une page, écriture sur un bloc:

L’interface séquentielle oblige aussi à travailler avec la page comme unité minimale pour la lecture. Si on veut accéder à un bit précis, il faut charger entièrement une page. Cette particularité explique que la mémoire flash manque parfois d’efficacité avec les très petits fichiers : la lecture d’un fichier de la taille d’une page (généralement 2 Ko) et d’un fichier plus petit prend le même temps.

Pour l’écriture, on travaille au niveau du bloc : la moindre écriture oblige à effacer entièrement le bloc de données avant d’écrire une nouvelle valeur. On a donc le même problème qu’en lecture, écrire 1 bit ou écrire 128 Ko (taille typique d’un bloc) nécessite le même temps au final : on doit reprogrammer entièrement le bloc. En pratique, l’écriture de petits fichiers (sous les 128 Ko) est donc assez lente avec de la mémoire flash.

Au niveau des performances : du fait de son mode de fonctionnement (séquentiel), l’accès aux données n’est pas instantané. Il faut compter environ 25 µs pour un accès à une page (temps de copie dans la RAM interne). L’accès aux autres pages du bloc est plus rapide (environ 0,03 µs), alors que l’effacement d’un bloc prend environ 2 ms.

En comparaison, sur des mémoires de type NOR, la lecture aléatoire d’une donnée est de 12 µs (quel que soit l’emplacement de celle-ci) et l’effacement d’un bloc est très lent : 750 ms.

  • * Mémoire SLC et mémoire MLC:

Notons qu’il existe deux types de NAND:

  • la SLC (Single Layer Cell) qui stocke un seul bit dans la grille flottante

et

  • la MLC (Multi Layer Cell), qui stocke plusieurs bits dans la même cellule. Techniquement, la MLC divise la grille flottante en deux parties, avec une différence de tension entre les deux parties. On peut donc doubler la capacité de stockage en gardant la même taille physique, ce qui est évidemment avantageux. La mémoire MLC a cependant des défauts : comme on doit travailler avec plusieurs tensions différentes, l’écriture et l’effacement des données sont bien plus lents qu’avec de la SLC (on a entre 25 et 50 % des performances de la SLC en écriture). La lecture reste rapide, mais pas autant qu’avec de la mémoire SLC (environ 80 % du débit d’une SLC équivalente).

Les puces de type SLC sont en toute logique plus véloces et plus efficientes en terme de consommation, en plus de supporter un plus grand nombre de cycles d’écriture bien que ceci ne soit plus réellement un problème pour l’utilisateur.

Les SSD utilisent tantôt de la mémoire SLC pour des raisons de rapidité, tantôt de la mémoire MLC pour des raisons de coût ou de capacité (à taille égale, on double la capacité de la mémoire). Il existe même des SSD mélangeant les 2 types de mémoires afin de trouver un meilleur compromis entre capacité et performances.

  • * Le RAID:

Acronyme de Redundant Array of Independent Disks (matrice redondante de disques indépendants en français), le RAID désigne une technologie permettant de stocker des données sur de multiples disques durs, en général de manière redondante, afin d’améliorer certaines caractéristiques essentielles de l’ensemble en fonction du type de RAID choisi, qu’il s’agisse de la tolérance aux pannes, de l’intégrité des données, ou des performances de l’ensemble.

De même que pour le disque dur, la technologie RAID est également applicable pour les SSD et montre un grand potentiel comme le prouve le test suivant :

–> www.nextlevelhardware.com…[/url] (article traduit en français [url=http://translate.google.com/translate?sourceid=navclient&hl=fr&u=http%3a%2f%2fwww%2enextlevelhardware%2ecom%2fstorage%2fbattleship%2f]ICI)

Ce test nous montre également les limites actuelles que nos machines peuvent encaisser en terme de débits. Les SSD étant limités par la carte controleur RAID.

Avantages: http://img32.imageshack.us/img32/6927/smileymw.jpg

Le SSD a, par rapport au disque dur classique, de nombreux avantages :

  • * Temps d’accès:

Il représente le délai permettant d’accéder à une donnée se trouvant sur le lecteur ou le disque dur.
De l’ordre de de 0,1 milliseconde (ms) pour les SSD (0.09 ms pour le X25-M v2 Postville d’Intel), il est 7 ms pour le meilleur disque dur grand public à savoir le Velociraptor 300 Go (plus généralement il faut compter 12 à 15 ms pour les autres disques durs). Cela donne donc au SSD une réactivité hors paire.

  • * Débits:

Les puces mémoires actuelles peuvent proposer des débits allant jusqu’à 355 Mo/s en lecture et 215 Mo/s en écriture (Crucial C300 256 Go). Ces débits sont plus ou moins constants (cela dépend en partie du contrôleur et de la présence ou non de mémoire cache SDRam) contrairement aux disques durs traditionnels où le débit diminue au fur et à mesure de l’avancement dans le plateau. Les performances sont bien meilleures que celles des disques durs 2.5" et même supérieures à celles du Velociraptor 600 à 10.000 tpm, la référence en disque dur 3.5", qui atteint un débit maximum en lecture de 145 Mo/s avec une moyenne de 100 Mo/s et un minimum de 85 Mo/s.

  • * Silence de fonctionnement:

Dû à l’absence de toute pièce mécanique, le silence de fonctionnement est total pour l’utilisateur, néanmoins, comme tout appareil électronique, un sifflement peut se faire entendre sur de basses fréquences en cas d’utilisation intensive du SSD. C’est un phénomène aléatoire et rare, mais qui peut parfois exister et qui peut dépendre de l’ouïe de chacun.

  • * Résistance:

La résistance aux chocs est importante puisqu’aucune partie mobile n’est présente (de l’ordre de 1000 à 1500G). De même, les disques Flash ont une plage d’utilisation thermique accrue pour une application industrielle plus adaptée. Là où la plupart des disques durs fonctionnent dans une fourchette de +5 à +55°C, la plupart des disques Flash supportent de -10 à +70°C en fonctionnement. Certains disques validés industriellement sont capables de fonctionner de -40° à +85°C, ce qui permet de proposer des solutions tenant compte des conditions désertiques et polaires pour le secteur automobile. De la même manière, cette résistance est également un atout dans les appareils nomades qui peuvent subir les aléas d’une utilisation mobile. Les températures supportées hors fonctionnement, pour du stockage pur, peuvent atteindre de -55 à +140°C.

  • * Consommation électrique:

La consommation électrique est d’environ 0,5 Watt en veille et 2 Watt en activité (contre une consommation d’environ 10 Watt pour les disques durs 3.5") mais les meilleurs SSD à l’image du OCZ vertex 2E 120 Go atteignent 1,8 Watt en activité contre 0,4 Watt en veille. Cela reste néanmoins inférieur aux disques durs 7200 tpm au format 2.5" pour portable qui vont de 1 Watt en veille à 4 Watt en activité et fait donc du SSD un atout dans le monde de la mobilité en participant à l’augmentation de l’autonomie des appareils mobiles. Le Vertex 120 Go établit même un record avec seulement 0.9W en activité pour des performances intéressantes.

http://www.univ-lyon2.fr/images/photos/0007/img_1168530415503.jpg

[b]Attention![/b] Il convient cependant de pondérer cet avantage car il semblerait que la consommation des derniers SSD augmentant, l’autonomie pour les appareils mobiles pourrait en être diminuée.

Ce cas de figure est rendu possible par le fait qu’un disque dur ne consomme son maximum en activité que de manière occasionnelle et se contente la plupart du temps d’une consommation légèrement supérieure à celle en veille en accès séquentiel. Le SSD, quant à lui, consomme toujours son maximum théorique dès qu’il est en activité. Si cela ne pose pas de problème pour les SSD consommant 1 Watt en activité, il en va autrement de certains SSD sortis qui culminent à plus de 2.5 Watt en activité, clairement au dessus des 1 Watt en veille des disques durs traditionnels 2.5".

La plupart des périphériques à base de mémoire flash ne possédent pas encore de dispositif d’économie d’énergie, car les priorités des constructeurs sont ailleurs mais ceci devrait changer avec les nouvelles générations de SSD comme la génération SandForce 2xxx.

  • * Température:

Comme tous les semi-conducteurs, la mémoire flash chauffe quand elle fonctionne. Et comme tous les semi-conducteurs, elle fonctionne mieux une fois refroidie. Les SSD chauffent mais il est parfaitement possible de mettre sa main sur un SSD après un test, chose moins évidente avec un disque dur.

  • * Poids:

Le SSD dispose également d’un poids plus faible que les disques durs traditionnels. En format 3.5" il faut compter environ 130 grammes pour un SSD contre 500 à 800 grammes pour un disque dur classique. Par contre en format 2.5" la différence est moins flagrante mais notable: entre 75 et 100 grammes pour un SSD contre 100 à 120 grammes pour un disque dur mais malgré tout la différence est là. Pour le format 1.8" les SSD peuvent descendre à 15 grammes dans des versions allégées ou 40 grammes dans des configurations plus classiques, contre 45 à 65 grammes pour les disques durs de même format.

  • * Fragmentation:

La fragmentation existant sur les disque durs magnétiques sous certains systèmes d’exploitation et réduisant notablement leurs performances au fur et à mesure que des fichiers sont stockés, utilisés ou déplacés n’a pas d’incidence sur les disque durs SSD. De même, certains constructeurs, à l’image d’OCZ, déconseillent formellement d’effectuer une défragmentation de leurs SSD sous peine de les endommager.

- Les accès:

Les débits des SSD, sont comme ceux des disques durs, fonction des accès qu’ils effectuent. Les débits que les constructeurs sont les débits maximums relevés lors d’accès séquentiels, c’est à dire lors d’accès à des éléments d’une liste préétablie et ordonnée. Les débits en accès de type aléatoire (aussi appelé direct), sont, quant à eux, bien plus faibles et généralement peu mis en avant par les constructeurs étant donnés que les ceux-ci sont inférieurs à ceux des accès séquentiels. Ils peuvent descendre aux alentours de 20 Mo/s, voir moins, et très peu de marques annoncent ces débits en aléatoire.

http://img136.imageshack.us/img136/8008/accsnm7.png

http://img136.imageshack.us/img136/6467/accs2el7.png

- IOPS

Les IOPS (Input/Output operations Per Second ou IO/s) représentent un système de benchmark qui mesure le nombre d’opérations d’entrée/sortie effectuées par seconde. Les mesures sont établies à l’aide de logiciels tels que IOMeter, l’un des plus célèbres, développé à l’origine par Intel.
Le nombre d’entrée/sortie par seconde (IO/s) dépend essentiellement de la charge effectuée par l’ordinateur, de type serveur (c’est à dire 80% de lecture et 20% d’écriture de manière totalement aléatoire) ou de type plus classique.

En lecture, contrairement aux disques durs dont les IO/s s’effondrent au fur et à mesure que le pourcentage d’accès aléatoires augmente, les SSD voient leurs IO/s stables et ne sont que peu impactés par les accès séquentiels ou aléatoires (de 5000 à plus de 50.000 IO/s en lecture pour les SSD avec des accès de 4Ko contre seulement 150 à 500 IO/s pour le Velociraptor).

En écriture cependant, le disque dur reprend du poil de la bête mais se voit dépassé par les meilleurs SSD. Les SSD voient leurs IO/s diminuer de manière drastique pour atteindre de 350 à 15.000 IO/s pour des accès en écriture aléatoire de 4 Ko contre 220 à 820 IO/s pour le Velociraptor. Les SSD sont donc très affectés par le caractère aléatoire des accès en écriture mais ont désormais l’avantage sur le disque dur.

Les IO/s peuvent s’envoler au delà des 80.000 sur des types d’accès séquentiels en lecture avec des accès de 512 Ko.

Inconvénients: http://img12.imageshack.us/img12/6686/nosmiley.jpg

  • * Capacité:

La capacité de stockage est pour l’instant limitée comparé au disque dur. Les capacités existantes pour le grand public: 32, 64, 128, 256 et 512 Go (ou 30, 60, 120 et 250 Go) n’étant pas forcément suffisantes pour tout le monde dans le cadre du rôle d’unité de stockage principale. Depuis la fin 2007 plusieurs sociétés ont annoncé la production de SSD d’une capacité avoisinant le téra-octet (To). La mémoire MLC permet d’atteindre des capacités plus importantes grâce à sa constitution de 2 bits par cellule contrairement à la mémoire SLC ne contenant d’un bit par cellule. Des tailles supérieures sont d’ores et déjà disponibles au format PCI-E 4X avec des SSD composés de plusieurs contrôleurs au sein du même boîtier (de 2 à 4 contrôleurs).

Sandisk et Toshiba ont alors présenté en février 2008, à l’ocasion de la conférence ISSCC (International Solid State Circuits Conference) la méthode mise en oeuvre pour développer des puces de 16 Gb (2 Go) où chaque cellule peut stocker 3 bits. Gravées en 56 nm, elles présenteraient une surface inférieure d’environ 20% à celle d’une puce équivalente à 2 bits par cellule.

Hynix a également présenté début juin 2008 sa solution de puce de mémoire flash de 32 Go exploitant une technologie à trois bits par cellule, baptisée « X3 ».

Spansion et Samsung ont pour leur part déjà fabriqué de la mémoire flash MLC avancée, à 4 bits par cellule cette fois mais cela ne marche pas réellement en terme de débits.

Cependant, en ce début de février 2009, Sandisk et Toshiba ont eux aussi annoncés de la mémoire MLC à 4 bits par cellule, permettant d’obtenir des cartes mémoires SD d’une capacité de 64 Go avec des débits de 7 à 8 Mo/s, comparables à ceux des cartes déjà existantes.

Les puces NAND à 3 bits (ou plus) par cellules ne semblent pas être une solution viable pour les SSD et resteront cantonnées aux clés USB et autres appareils embarqués.

Les capacités vont progressivement doubler, cela au fur et à mesure de l’augmentation de la finesse de gravure, celle-ci oscillant entre 34 nanomètres (nm) et 50 nm (la génération 25nm débarquera dès la fin 2010 et au cours de l’année 2011).

En passant du 56 nm au 43 nm, on peut être en mesure d’obtenir une densité deux fois supérieure par cellules de 16 Gb (2 Go).

  • * Prix:

La technologie étant récente, le prix s’en ressent et c’est aujourd’hui le principal frein à l’adoption du SSD. Cependant il ne faut pas oublier que le disque dur en son temps coutait lui aussi très cher: Seagate a lancé son premier disque dur en 1979, baptisé ST-506, d’une capacité 5 Mo et qui coûtait 1 500 dollars, soit 300 dollars par Mo.

Il faut compter environ 1.87 euros le Go pour des SSD performants actuellement (224.96 euros: prix au 08/10/2010 : OCZ Vertex 2E 120 Go Sata II 2,5" sur LDLC) alors que le tarif au Go des disques durs classiques les plus performants se négocie à 6.2 centimes (58.59 euros prix au 08/10/2010: Samsung F3 1000 Go 32 Mo sur Materiel.net) ce qui rend donc le SSD “Performance” environ 30x plus cher que le disque dur magnétique.

Le Velociraptor se négocie à 48 centimes le Go (269.49 euros le modèle 600 Go, prix au 08/10/2010 sur Materiel.net) ce qui rend encore le SSD Performance environ 3.9x plus cher que le Velociraptor.

Les prix baissent vite, sur l’année 2008, les prix ont diminués entre 2 et 3 fois (les puces MLC ont perdu un peu plus de 50% de leur valeur de mai à décembre 2008 - voir tableau des cours de la mémoire flash). L’année 2010 a vu les prix des solutions Sandforce fondre au cours du 2ème semestre. Il faudra cependant attendre 2011/2012 avant de commencer à trouver des SSD performants avec une capacité honnête (120 Go et plus) à des prix abordables pour le grand public. Et pas avant 2013/2014 ans pour le très grand public.

Il existe cependant un risque de ralentissement de la baisse des prix car la demande dépasse actuellement la production (l’offre), la faute incombant à des commandes énormes de constructeurs tel qu’Apple qui n’hésitent pas à vider les stocks afin de lancer leurs nouveaux produits, comme chaque année, ce qui induit une flambée des prix comme il en est arrivé au mois d’avril 2009 avec une augmentation de près de 20% des prix plus ou moins répercutée selon les marques. Les constructeurs, assez frileux sur les nouvelles technologies onéreuses ne se pressent pas pour augmenter substantiellement leur capacité de production, attendant de voir l’évolution à moyen terme. Le marché de la mémoire flash n’est pas en mesure d’absorber une demande en telle expansion. Il va falloir un investissement important de tous les acteurs du marché pour résorber le différentiel entre l’offre et la demande afin que le SSD puisse continuer sa progression sur le disque dur traditionnel car il ne suffit pas de voir se multiplier les marques sur le marché des SSD pour permettre à cette technologie de se démocratiser mais il faut également une augmentation proportionnelle des capacités productives de Flash sous peine de voir la demande augmenter encore, et les prix avec.

Il a été constaté au mois de mars et avril 2009 une flambée de prix de la NAND MLC de l’ordre de 15 à 20% et cela a été répercuté sur les SSD. Le mois de mai 2009 a marqué le retour à la normale et aux prix des mois précédents mais Apple ayant vidé les stocks de NAND pour ses modèles nouvelle collection, la remontée des prix a été très nette (20 à 30%) courant octobre et novembre 2009. Ce phénomène, conjugué avec la hausse de la demande n’a pas fait revenir les prix à la normale. Le phénomène s’est stabilisé début 2010 avant que les prix ne fondent à partir du 3ème trimestre 2010.

  • * Performances aléatoires:

L’un des problèmes actuels des SSD consiste en des performances parfois en dent de scie de certains SSD. La technique la plus rapide pour retrouver les performances d’origine consiste à effectuer une commande “SECURE ERASE” (voir partie plus bas dans le topic) qui consiste en une remise à zéro du SSD comme s’il venait de sortir de l’usine. Néanmoins, ces problèmes ne concernent presque plus les SSD actuels qui disposent tous du TRIM, clé à ce problème (voir article plus bas).

http://www.univ-lyon2.fr/images/photos/0007/img_1168530415503.jpg

Cas du contrôleur JMicron:

Dans le monde des SSD, il existe une scission assez nette dans les gammes:

  • Les SSD à mémoire SLC pourvus de mémoire cache

  • Les SSD à mémoire MLC, moins onéreux, dépourvus de mémoire cache (à l’exception du X25-M notamment pourvu de 256 Ko de cache avec son contrôleur)

L’un des problèmes de cette 2ème catégorie est que l’écrasante majorité de ces SSD en MLC est dotée d’un contrôleur JMicron modèle JMF602. Celui-ci a clairement montré ses limites quand il s’agit d’effectuer des opérations de type aléatoire (par opposition à séquentiel), étant donné la trop faible mémoire cache intégrée au contrôleur (16 Ko). Cela peut alors engendrer des latences pouvant atteindre les 900ms (soit près de 1 seconde) et donc occasionner des “micro-coupures” visibles par l’utilisateur, comme celles observées sur les SSD Core de OCZ ou les SSD Silicon Power.

—> Voir ICI

Ce contrôleur est doublement voué à poser problème étant donné qu’il ne supporte que des débits séquentiels maximums de 170 Mo/s en lecture et 135 Mo/s en écriture, qui sont en train d’être dépassés par les tous derniers modèles de SSD, qu’ils soient en SLC ou même en MLC (comme les Vertex de OCZ).

La troisième révision du JMF602(B) a cependant amélioré les performances en terme de latence d’écriture. Le fait également d’utiliser un RAID interne avec 2 de ces contrôleurs (à l’image des modèles G.Skill Titan et OCZ Apex) a pu réduire d’autant plus les problèmes précédemment rencontrés. La révision B ne supportait malheureusement toujours pas de mémoire cache externe. Le successeur de ce contrôleur controversé, le JMicron 612 commence à être référence et dispose enfin de mémoire cache dédiée. Les performances sont données comme globalement équivalentes à celles délivrées par les Indilinx.

La parade à ce problème est donc de doter les SSD d’une mémoire cache propre de type SDRam. Celle-ci aura pour rôle de stocker les informations et d’éviter ainsi l’engorgement des données qui induit les micro-coupures.

Il est à noter qu’il existe 2 types de cache:

  • le cache “on die” intégré directement dans le contrôleur (16 Ko sur le JMF602 et 256 Ko sur le contrôleur des Intel)

  • le cache externe “on board” qui fait l’interface entre le contrôleur et les puces flash

Les Vertex sont les premiers SSD à être sorti de cette spirale du JMicron et désormais c’est une déferlante de contrôleur Indilinx qui commence au 2ème trimestre 2009. Tout cela à tarif abordable puisque ces SSD sont annoncés à des prix sensiblement équivalents à ceux des Core V1 à leur sortie.

  • * Durée de vie:

C’est véritablement le principal grief porté à l’encontre de la technologie SSD.

Il y a deux raisons à la durée de vie limitée de la mémoire flash.
La première vient de l’oxyde utilisé pour séparer les grilles. Comme nous l’avons vu, les électrons doivent traverser cet oxyde pour passer dans la grille flottante ou en sortir. De temps en temps, il peut arriver que des électrons restent captifs de cet oxyde, et soient relâchés plus tard, ce qui peut perturber les écritures et la lecture.

La deuxième vient de la structure de la grille flottante elle-même : avec le temps, les tensions élevées peuvent l’endommager, ce qui à terme va la rendre inutilisable. On considère généralement qu’une cellule de mémoire SLC peut subir environ 100.000 écritures avant destruction, et que la mémoire MLC est moins endurante : environ 10.000 écritures.

Un nouveau type de NAND, les eMLC, plus endurante est annoncé par Micron pour le marché professionnel: ces puces “enterprise” en 34 nm sont annoncées supporter 30.000 cycles d’écritures pour une puce de 32 Gb de NAND MLC et 300.000 cycles d’écritures pour une puce de 16 Gb SLC. Cette annonce nous montre que les cycles des NAND normales sont limitées à 5000 pour les MLC. Cela peut sembler faire face au chiffre de 10.000 connu de tous mais il faut voir que leurs puces 50 nm étaient annoncées à 1500 cycles.

Des puces eMLC en 25nm sont annoncées pour la 3ème génération de SSD Intel.

Le problème de durée de vie reste plus théorique qu’autre chose. La mémoire flash est utilisé depuis une quinzaine d’année dans le monde de l’entreprise et aucun problème n’est à déplorer. Preuve en est de ces entreprises qui se tournent vers la NAND et des secteurs sensibles comme la Défense avec les nouveaux F/A-18 Hornet qui seront équipés de SSD.

Les solutions:

La majorité des dispositifs utilisant de la mémoire flash disposent d’un contrôleur interne, qui va gérer les accès à la mémoire. Il est utilisé pour les transferts de données, mais aussi pour vérifier que le dispositif fonctionne bien. La puissance nécessaire peut être importante. Indilinx ou Samsung utilisent par exemple un processeur de type ARM pour cet usage (Advanced Risc Machine est une architecture de processeurs 32 bits de type RISC, c’est à dire à jeu d’instructions réduit, conçue par IBM et très utilisée dans les ordinateurs de poche, smartphones et appareils embarqués).

http://img134.imageshack.us/img134/515/34967803crop.jpg

Ce contrôleur vérifie automatiquement les écritures en relisant la dernière donnée écrite. S’il lui est impossible de la relire, le bloc complet est déterminé comme défectueux et l’écriture est relancée sur un autre bloc. Donc sauf si la mémoire flash est entièrement utilisée ou défectueuse, les données seront écrites sur le support.

La deuxième vérification s’effectue aussi durant l’écriture, avec la correction d’erreur ECC (Error Correcting Code qui est un code correcteur, technique de codage basée sur la redondance. Elle est destinée à corriger les erreurs de transmission d’une information).

Toutes les puces de mémoire flash disposent de bits de contrôle, qui servent à la vérification des données écrites. En général, le contrôle ECC permet de corriger les erreurs de 1 bit et de détecter les erreurs sur 2 bits. Dans ce deuxième cas, le bloc est indiqué comme défectueux et l’écriture relancée sur un autre bloc.

Une petite explication sur le fonctionnement. On dispose de 3 octets d’ECC par bloc de 512 octets (donc 24 bits). À chaque écriture, le code ECC est calculé et écrit dans la zone inutilisée des blocs de données. Pendant la relecture, le code ECC des données est calculé et comparé au code ECC de départ (celui calculé à l’écriture). Si les deux codes sont identiques, le travail continue. Le premier cas intervient s’il y a une erreur sur 1 bit, à ce moment-là c’est corrigé et l’écriture continue. Enfin, il se peut qu’il y ait une erreur de 2 bits, ou une erreur dans le code ECC lui-même. Ces deux cas spécifiques ne sont pas corrigibles, et l’écriture est relancée sur un autre bloc.

  • La gestion de l’usure:

Les constructeurs se sont penchés sur le problème de la durée de vie, et ils ont implémenté plusieurs techniques pour limiter l’usure de la mémoire NAND, c’est ce qu’on appelle le Wear Leveling.

La première technique, la plus simple, est d’utiliser un erase pool. C’est la technique des blocs de réserve. Une partie de la mémoire est réservée, et inaccessible à l’utilisateur. Cette mémoire cachée peut être utilisée par le contrôleur pour remplacer des blocs défectueux sans altérer la capacité du support, et sans que l’utilisateur s’en rende compte. La quantité de mémoire réservée varie, entre 1 et 5 % selon le support et le type de mémoire (on a une plus grande réserve quand on utilise de la MLC). Cette technique n’empêche pas réellement l’usure du support, mais ralentit son impact réel. C’est pour cela que l’on trouve des SSD de capacité de 30, 60, 120, 250 Go au lieu des classiques 32, 64, 128 et 256 Go, la différence étant utilisée dans des blocs de réserve qui correspondent à environ 5% de la capacité totale du SSD.

Il existe d’autres techniques bien plus évoluées pour limiter l’usure du support: Dynamic Wear Leveling et Static Wear Leveling

- Le Dynamic Wear Leveling

le Dynamic Wear Leveling est rarement utilisé car peu adaptée à un usage informatique. Schématiquement, le contrôleur va intercepter les écritures et les distribuer aléatoirement sur des blocs situés dans l’espace libre. Comme les écritures ne seront plus concentrées sur le même bloc physique, on ne risque pas de détruire un bloc en particulier si un programme écrit en permanence sur le même fichier. Le problème de cette technique est simple : si l’espace libre est trop faible, les écritures vont se faire fréquemment sur les mêmes blocs, qui vont s’user et donc devenir inutilisables. On considère que le Dynamic Wear Leveling perd de son efficacité dès que l’espace libre descend sous les 25 % et est inutile avec moins de 10 % d’espace libre.

- Le Static Wear Leveling

C’est une technique assez complexe. Le contrôleur enregistre le nombre d’écritures sur chaque bloc, et la dernière date d’utilisation de celui-ci. Il est donc capable de déterminer la fréquence d’utilisation d’un bloc et son usure. Si on doit écrire une donnée, il va d’abord chercher le bloc qui a subi le moins de cycles. S’il est libre, le contrôleur l’utilise. Par contre, si le bloc contient des données, il va vérifier la dernière fois qu’il a été écrit et déterminer si c’est une donnée statique (pas d’écriture depuis X temps) ou bien dynamique (le bloc a été écrit récemment).

Si c’est une donnée statique, il va la déplacer vers un bloc usé et mettre la nouvelle donnée à sa place. Si c’est une donnée dynamique qui se trouve sur le bloc, il va en chercher un autre. L’intérêt de la technique consiste à placer les données qui ne sont pas souvent écrites sur des blocs usés et de placer les données souvent modifiées sur des blocs qui ont subi peu d’écriture. Cette technologie permet de garder une usure constante sur le support, et de ce fait d’augmenter la durée de vie globale.

Voici deux graphiques qui montrent l’usure schématique d’un SSD après un usage simulé de quelques mois (le même nombre de cycles a été effectué dans les deux cas). Ces graphiques sont théoriques, mais se rapprochent assez de ce qui se passe en pratique pour être intéressants à analyser.

Ce graphique montre un SSD sans protection après un usage simulé de quelques mois. On remarque qu’un certain nombre de blocs ont été utilisés énormément et qu’une grande partie des blocs ont été peu écrits. Des pics d’usures sont présents, et peuvent potentiellement empêcher l’usage du support. C’est une estimation, car les constructeurs ne permettent pas de mesurer l’usure d’un support.

Avec une protection statique, la situation est toute autre

Sur ce graphique, on remarque que l’usure moyenne est un peu plus élevée, mais qu’il n’y a pas un seul pic d’usure. Comme on écrit souvent sur un disque, les données vont tourner sur tout le support, ce qui explique qu’on a une vague à la place d’une ligne droite. Si à un instant T, une donnée statique est sur le bloc le plus usé, à l’instant T+10, ce bloc peut devenir le moins usé, et donc les données sont en rotation sur l’entièreté du support. On a une moyenne d’utilisation faible, mais pas totalement homogène.

Le MTBF (Mean time between failures soit le temps moyen avant des échecs) des SSD est généralement annoncé entre 1.000.000 et 4.000.000 d’heures. Même si le chiffre paraît fantaisistes, cela montre que les constructeurs ont confiance en leurs produits car dans la pratique, l’utilisation courante n’usera pas prématurément le SSD.

De plus, les pannes sur les supports de stockage viennent généralement d’une défaillance mécanique, et les SSD étant dépourvus de toutes pièces en mouvement, cela les protège évidemment de ce type de panne.

Il sera préférable néanmoins de se référer à la durée de garantie qui devra au moins être égale à 2 ans, ou idéalement 5 ans, afin de se prémunir contre le risque de voir son SSD hors service.

Au final, selon les constructeurs, avec les blocs de réserve et la technique du Static Wear Leveling, la durée de vie des SSD est supérieure à celle des disques durs. Avec la pire estimation (en écrivant en permanence à la vitesse maximale du support), le SSD de Samsung a une durée de vie de 4 ans environ et celui de Transcend de 2,6 ans. Mais ce sont des cas théoriques, en pratique on peut estimer la durée de vie minimale au double ou au triple de ces valeurs. Notons que la capacité augmente la durée de vie, étant donné qu’on dispose de plus de blocs pour distribuer les écritures.

Optimisation des SSD:

- Forums constructeurs:

Les forums des marques (malheureusement en anglais la plupart du temps) regorgent d’informations précieuses que vous pouvez à tout moment consulter. Problèmes spécifiques, futures sorties de produits, mises à jour de firmware, tout y est ou presque. Il suffit de demander:

- Mise à jour du firmware:

Afin d’améliorer les performances de son SSD, l’une des solutions possible est la mise à jour du Firmware, Micro-programme logé sur de la mémoire morte indispensable à son fonctionnement. Le “Flash” du firmware qui consiste en une mise à jour de celui-ci peut régler des bugs mais aussi ajouter de nouvelles fonctionnalités ou encore améliorer les performances.

Attention cependant, dans l’informatique tout n’est pas forcément rose et une mise à jour comporte son lot de risques. Vous pouvez avoir de nouveaux bugs après le flash ou des problèmes durant la mise à jour du firmware. De même, en informatique, une mise à jour peut parfois entraîner des pertes de performances. Veillez donc à ne flasher le SSD que si vous en avez un besoin substantiel car si tout marche déjà bien et que vous n’en avez pas besoin, abstenez-vous histoire de ne pas tenter le diable. Quoi qu’il en soit, renseignez vous au préalable sur les retours concernants le firmware en question en consultant divers forums.

ATTENTION http://www.univ-lyon2.fr/images/photos/0007/img_1168530415503.jpg

Il est à noter qu’un flashage de firmware peut entraîner une remise à zéro des données présentes sur celui-ci, comme c’est le cas chez OCZ.

Téléchargements:

OCZ firmware Vertex

Guide downgrade firmware Vertex

Crucial Firmware

G.Skill firmware 1819

Guides flashage et Firmwares SuperTalent

Guide flashage Intel X25-M et X18-M

Firmware Intel X25-M

Firmwares Mtron séries 3x00 et 7x00
Il est à noter que certains Mtron voient leur capacité tomber de 15 Go à 15 Mo après le flash (attention donc avec les derniers firmwares)

Concernant le Wiper OCZ, le constructeur indique la combinaison de chipset/drivers la plus optimale pour son fonctionnement:

OCZ_GC.exe marche le mieux avec:

  • Intel chipset IDE mode = Intel driver
  • Intel chipset AHCI mode = Microsoft driver
  • Intel chipset raid mode = Intel driver
  • AMD chipset IDE mode = Microsoft driver
  • AMD chipset AHCI mode = Microsoft driver
  • AMD chipset raid mode = AMD driver
  • NVIDIA chipset IDE mode = Microsoft driver
  • NVIDIA chipset AHCI mode = Microsoft driver
  • NVIDIA chipset raid mode = NVIDIA driver

- L’alignement:

Sous Windows 7 et Vista, l’alignement se fait normalement de manière automatique.

Procédure d’alignement sous XP de florianarnaud:

Guide pour aligner un SSD

Méthode pour XP 32 et 64 bits:

Tutorial alignement 1 (anglais)

Tutorial alignement 2 (anglais)

Méthode pour Vista 64 bits:

Normalement Vista aligne par défaut le SSD de manière correcte mais vous pouvez toujours choisir de forcer un alignement d’une taille précise.

Téléchargez Diskpar.exe —> ICI

Lancez l’invité de commande en mode administrateur (clic droit sur Invité de commande puis “Exécuter en tant qu’administrateur”)

Copiez Diskpar sur le disque et lancez-le. Il faut trouver ensuite le numéro d’identification du SSD (ça peut être 0 ou 1). Pour l’exemple ça sera “0”

Pour avoir des informations sur le disque dur 0 il faut lancer la ligne de commande suivante: diskpar -i 0
Dès que le disque dur à aligner est déterminé, il faut garder le numéro en mémoire. Si le SSD concerné est le numéro 0, il faut taper la ligne de commande suivante:

diskpar -s 0

Lisez les instructions et acceptez que le programme efface toutes les données sur le SSD concerné.
Choisissez la valeur d’offset “128” et pour la taille de la partition mettez la taille maximale disponible.

(merci à alexreunion de HFR)

- Divers tweaks:

ATTENTION: Certaines manipulations pourraient ne pas fonctionner en fonction des modèles de SSD ou de votre configuration. Celles-ci sont données à titre purement indicatif et chacun engage sa propre responsabilité en effectuant ces tweaks!

Tweaks Firefox+divers

Voici un programme regroupant divers tweaks pour ceux ayant peur de manipuler leur base de registre:

Programme de tweaks SSD

La création d’un Ramdisk est aussi une idée pour le cache internet et les fichiers temporaires.

Procédure de création du Ramdisk

Notez que l’utilisation d’un ramdisk invalide votre score PCMark.

- Problème de boot sous Vista:

Sous vista, lorsqu’on utilise un clavier USB, il peut y avoir un allongement excessif du temps de boot, pour le résoudre suivez les indications suivantes:

Gestionnaire de périphériques puis “Affichage” puis “Périphériques par type”. Allez dans “Périphériques d’interface utilisateur” puis “Périphériques d’interface utilisateur USB”. Vous devez avoir 2 éléments! clic droit sur l’un des 2 et “Mettre à jour le pilote”, cliquez sur “Installer à partir d’une liste ou d’un emplacement spécifié” puis sur “Ne pas rechercher. Je vais choisir le pilote à installer”. Sélectionnez ensuite HID-compliant device. Il ne vous reste plus désormais qu’à redémarrer le PC pour constater la différence.

Ci cela ne marche pas essayez la version ci-dessous traduite d’une post anglais:

Ouvrez le gestionnaire des périphériques, puis dans le menu “Affichage” et sélectionnez “Périphériques par connexion”. Suivez ensuite les sous-familles de x32/x64 PC à PCI Bus puis l’un de vos USB Host Controllers aura une sous-familles appelée “Generic USB Hub” puis allez à “Périphérique USB d’interface utilisateur”. Il devrait y avoir 2 éléments à l’intérieur, HID clavier, HID compliant. Il vous faut faire un clic droit sur le “HID périphérique clavier” et “Mettre à jour le pilote”, cliquez sur “Installer à partir d’une liste ou d’un emplacement spécifié” puis sur “Ne pas rechercher. Je vais choisir le pilote à installer”. Sélectionnez ensuite HID-compliant device et vous devriez avoir 2 HID-compliant device dans la branche. Il ne vous reste plus désormais qu’à redémarrer le PC pour constater la différence.

- Secure Erase:

Lorsque l’on achète un SSD, tout va bien au début. Les performances sont alors maximales.
Cependant, il est apparut qu’avec le temps les performances du SSD se dégradent comme avec le X25-M d’Intel qui est l’exemple le plus connu de ce phénomène --> VOIR ICI

SI vous désirez retrouver votre SSD dans son état d’origine, le formater ou effacer tous les fichiers présents dessus ne marchera pas car les pages du lecteur resteront pleines de données.

Pour ramener le SSD à son état d’origine (de sortie d’usine), il faut procéder à un effacement dit sécurisé plus communément appelé Secure Erase. Celui-ci peut être effectué grâce au logiciel HDD ERASE distribué par Intel.

CLIQUEZ ICI POUR TELECHARGER HDDERASE 4

Cet outil n’est pas seulement destiné aux SSD Intel mais fonctionne avec tous les modèles.

ATTENTION http://www.univ-lyon2.fr/images/photos/0007/img_1168530415503.jpg

L’utilisation d’un Secure Erase effacera les données du disque de manière totale. Toutes les fichiers seront perdus.

Afin de pouvoir effectuer le lancement du programme, il vous faut dans un premier temps configurer dans le BIOS le contrôleur SATA en mode “Legacy IDE” afin de limiter les problèmes de compatibilité en faisant reconnaître les périphériques SATA comme PATA. Le SSD devra avoir été connecté sur l’un des quatres premiers ports SATA du contrôleur.

Démarrez sur un invité de commande (vous pouvez utiliser une image DOS bootable sur une clé USB) et démarrez l’exécutable. Répondez aux questions posées avec soin.

Dites au programme que vous aimeriez effectuer un Secure Erase et lorsqu’il vous demande si vous souhaitez voir LBA 0 vous pouvez répondre NON. Redémarrez votre ordinateur (n’oubliez pas de reconfigurer votre contrôleur SATA comme avant en lieu et place du Legacy mode IDE).

Ce mécanisme n’est pas forcément nécessaire à tous les SSD. Cependant si vous créez une image de votre lecteur, effectuez un Secure Erase avant de réinstaller l’image afin d’éliminer toutes les données. Le TRIM est la solution à cette dégradation de performances.

- La commande TRIM:


Programmes permettant le “TRIM” manuel:

OCZ Vertex wiper

G.Skill Falcon wiper TRIM

Supertalent UltraDrive Performance Refresh Tool

Intel Toolbox

Le lecteur SSD ne peut pas savoir quand un fichier est supprimé mais seulement quand l’un d’eux est écrasé. On perd ainsi en performance lorsque l’on va écrire un nouveau fichier.

La commande TRIM demanderait un OS approprié et un support du lecteur mais on peut laisser l’OS dire au SSD d’effacer les pages invalides avant qu’elle soient écrasées.

Explication du processus:

Premièrement, un OS supportant la commande TRIM ( Windows 7 supportera TRIM jusqu’à un certain degré) interroge un disque dur selon sa vitesse de rotation. Si le lecteur répond par un 0, l’OS saura que c’est un SSD et désactivera les fonctions telles que la defragmentation. Cela activera également l’utilisation de la commande TRIM.

Lorsque l’on efface un fichier, l’OS envoie une commande TRIM des blocs recouverts par le fichier (LBA - Logical Block Adressing: technique pour adresser des clusters sur un disque dur au format EIDE, Ehanced IDE, et qui permet l’utilisation des plus gros d’entre eux) jusqu’au contrôleur du SSD. Le contrôleur copiera ensuite le bloc sur la mémoire cache, supprimera les pages effacées et écrira le nouveau bloc, avec les pages fraîchement nettoyées, sur le lecteur.

Désormais, lorsqu’on va écrire un fichier sur le bloc, on a des pages vides pour y écrire dessus et les performances d’écriture seront proches de ce qui devrait être.

Parenthèse sur le LBA:

Le LBA est la traduction en adresse de la localisation physique d’une information. Dans le cas d’un disque dur, le LBA traduit la localisation physique d’une information sur le disque (cylindre, tête de lecture, secteur) en adresse physique adressable par les composants qui veulent y accéder. Dans le cas d’un disque dur, un LBA ne change pas de place. Dans les SSD, ce n’est pas vrai. Par exemple, le LBA 3 peut très bien être stocké à la localisation physique 0 mais la prochaine fois que le LBA 3 sera programmé et réécrit, il pourrait être placé dans la localisation physique 253 ou 2564…Selon Intel, à cause de cela, la performance des SSD varie dans le temps.

Voici ce qui se passerait si l’OS et le lecteur supportaient le TRIM:

On sauvegarde un fichier texte de 4 Ko qui est mis dans une nouvelle page sur un lecteur neuf d’une capacité de 20 Ko. Aucune différence ici.

Ensuite c’est une image JPEG de 8 Ko. 2 pages allouées et encore aucune différences.

La troisième étape consiste dans l’effacement du fichier texte de 4 Ko original. Depuis que le lecteur supporte TRIM, lorsque cette demande de suppression revient, le lecteur lira en fait le bloc entier, enlevera le premier LBA et écrira le nouveau bloc sur la mémoire flash.

La commande TRIM oblige le bloc a être nettoyé avant l’écriture finale. Il y a un temps de gestion supplémentaire mais il apparaît après la suppression et non pendant l’écriture cruciale.

Le lecteur est maintenant à 40% de sa capacité comme l’OS pense qu’il l’est (1 bloc représentant 20%). Lorsqu’on va sauvegarder l’image JPEG de 12 Ko, l’écriture se fera à pleine vitesse. Problème résolu.

Pendant que la commande TRIM allègera le problème, elle ne l’éliminera pas. La commande TRIM ne peut pas être réalisées lorsqu’on écrase simplement un fichier (lorsqu’on sauvegarde des changements sur un document par exemple). Dans ces cas-là, il y aura toujours une pénalité en terme de performances.

Tous les responsables des fabricants affirment leur intention de supporter TRIM quand il y aura un OS qui tirera parti de son avantage. L’inconnue étant de savoir si les lecteurs actuels auront ou non la possibilité d’être mis à niveau par firmware pour supporter TRIM étant donné qu’aucun fabricant n’a de stratégie établie sur ce point précis.

Dès que Windows 7 supportera TRIM, il y aura une nouvelle génération de lecteurs avec le support de cette commande. Il reste à espérer que les lecteurs actuels seront mis à niveau lorsque cela arrivera (vu le prix actuel, c’est le minimum qu’ils puissent faire).

- Les apports de Windows 7: http://img12.imageshack.us/img12/9474/windows7c2.jpg

Lorsque Windows 7 détectera un dispositif non rotatif (possible grâce aux spécifications de la norme ATA8-ACS), il désactivera la défragmentation afin de réduire les écritures et améliorer de ce fait la durée de vie du SSD.
Le SSD pourra aussi indiquer à Windows la taille de ses blocs et de ses pages qui varient afin de permettre d’optimiser le système de fichiers en évitant les écritures inutiles en alignant les clusters (ensemble de données) sur la taille des blocs mémoire de la mémoire flash.

La fonction TRIM est également implémentée dans Windows 7. Le NTFS enverra des instructions de suppression aux SSD supportant le TRIM.

Il en découle 3 optimisations:

  • Améliorer le Wear Leveling en évitant les opérations de fusion pour tous les blocs de données effacées
  • Effectuer au plus tôt une collection des données incorrectes pour une écriture plus rapide
  • Conserver l’espace de stockage inutilisé du SSD aussi longtemps que possible ce qui fera plus de place pour le dispositif de Wear Leveling

Dossier complet des améliorations de Windows 7 pour les SSD (anglais)
Edité le 08/10/2010 à 18:04

0 Likes

#2

Les solutions SSD:

Les SSD sont aujourd’hui proposés en divers standards:

- Interface:

  • SATA/150 ou SATA 1 (SATA 1.5 Gbit/s): C’est l’évolution de la norme ATA,. Elle permet un branchement à chaud (hot plug) et possède un connecteur moins imposant que la traditionnelle nappe IDE. Le débit maximal est de 150Mo/s. Cette norme va d’ici peu devenir une limitation fasse aux prochains SSD dont la vitesse de lecture est annoncée aux alentours de 200Mo/s.

  • SATA/300 ou SATA II (SATA 3.0 Gbit/s): C’est l’évolution de la norme Sata/150. Elle apporte simplement un simplement du débit maximum supporté soit 300Mo/s. C’est la norme actuelle des disques durs classiques et des meilleurs SSD mais celle-ci ne dispose que de peu de temps car il ne fait aucun doute que cette norme sera une nouvelle fois un goulot d’étranglement des débits des prochains SSD étant donné la rapidité avec laquelle les débits augmentent au fur et à mesure du temps (notons d’ailleurs l’annonce récente d’un disque dur à 20.000 tpm par Western Digital, ICI, qui s’agite pour essayer de contrer les SSD mais cela semble peine perdue étant donné le nombre d’acteurs engagés dans les SSD et l’évolution en marche).

  • SATA/600 ou SATA III (SATA 6.0 Gbits/s): C’est une nouvelle évolution de la norme Sata qui autorise des débits jusqu’à 600Mo/s. Elle n’a pas été annoncé à une date précise mais devrait si tout se passe bien débarquer durant le 2ème semestre 2008. Elle sera à même de contenter l’appétit de débit des SSD, durant un temps du moins.

Une nouvelle forme de SSD a vu le jour en 2009: le SSD au format PCI-E. Celui-ci à pour avantage d’autoriser des débits bien plus importants et une absence de câble, contrairement à ses homologues en interface SATA. L’un des problèmes lié au SSD en PCI-E est qu’il nécessite, pour pouvoir booter sur celui-ci, un pilote spécifiquement et un BIOS adapté à ce cas de configuration. Hormis ces défauts, les débits maximums autorisés par l’interface laissent songeur:

  • PCI-E 1.1: Première norme PCI-E sortie, celle-ci est actuellement dans sa révision 1.1. Elle offre des débits de 250 Mo/s par ligne soit un total de 250, 1000, 2000 et 4000 Mo/s selon qu’on utilise le PCI-E 1x, 4x, 8x ou 16x. Elle permet d’alimenter le périphérique à hauteur de 75W ce qui reste plus que suffisant pour une application SSD. Le PCI-E 1.1 laisse sur place le SATA 3.0 qui n’est pas prévu avant la fin de l’année 2009 en terme de débits.

  • PCI-E 2.0: C’est l’évolution de la norme PCI-E 1.1. Elle permet un doublement des débits et un doublement de la puissance offerte (150W). Les débits sont portés à 500, 2000, 4000 et 8000 Mo/s pour les interfaces 1x, 4x, 8x et 16x.

  • PCI-E 3.0:Evolution prévue pour la fin 2010, elle double encore les débits par rapport à la génération 2.0. Ceux-ci atteignent 1, 4, 8 et 16 Go/s pour les interfaces 1x, 4x, 8x et 16x. Une hypothétique version 32x permettrait d’atteindre 32 Go/s. Ces débits laissent littéralement sur place le SATA permettant ainsi de laisser libre court aux débits. La puissance fournie passera également à 300W mais cela restera plus intéressant pour les cartes graphiques puisque les SSD restent à des années lumières de ces valeurs en terme de consommation.

- Format et packaging

Les SSD sont proposés en plusieurs formats et finitions. Il est intéressant de noter que contrairement au disque dur classique, le format n’a pas d’impact sur les performances du SSD, ainsi Mtron et MemoRight proposent leurs SSD en 3.5" et 2.5" sans que les débits diffèrent alors que pour les disques durs classiques, les débits sont moindres lorsque l’on passe à la taille inférieure (exception faite du velociraptor de taille 2.5" encastré dans un radiateur 3.5").

  • Format 3.5":

C’est le format standard des disques durs pour ordinateurs fixes. Il est trop gros pour rentrer dans un ordinateur portable. Il a tendance a se développer depuis le second semestre 2010.

  • Format 2.5":

C’est le format utilisé par les disques durs pour portables. Il est environ 30% plus petit que le format 3.5". C’est le format standard des SSD

C’est le plus petit format disponible pour les SSD (30% plus petit que le 2.5", il est beaucoup utilisé dans le domaine des baladeurs). Samsung a annoncé en janvier 2008 des SSD de 128Go dans ce format.

  • Packaging:

Les SSD sont, comme les disques durs, assemblés à l’intérieur d’une coque protectrice afin d’éviter une détérioration excessive des composants:

  • Finition plastique:

c’est la finition de base de la plupart des SSD, une simple coque en plastique entoure les mémoires flash, cela permet de diminuer le coût face à une finition de type aluminium.

  • Finition aluminium:

c’est la meilleure finition qui soit, en plus de l’aspect élégant et pur, la finition aluminium brossé permet un gain au niveau du poids mais également une meilleure dissipation thermique. Le problème de la diffusion du bruit ne concerne pas le SSD étant donné l’absence de pièces en mouvement. Il faudra faire attention à bien installer le SSD sous peine de le voir servir à la propagation des vibrations provenant des autres composants.

http://digitpedia.com/wp-content/uploads/2008/03/ocz-ssd.jpg

La finition aluminium n’est pour le moment plus disponible sur les SSD.

Les acteurs du marché:

Entreprise taïwanaise créée en 2001. Leurs SSD ne brillent guère dans ce secteur où tous se jettent.

L’un des leaders sur le marché de la mémoire vive ne pouvait rester en retrait de la révolution en marche. L’entreprise qui a vu le jour en 1994, a prévu des lancements successifs de modèles aux performances croissantes. Aucune des annonces n’a cependant fait sensation en terme de spécifications.

Branche de Lexar, entreprise américaine créée en 1996, Crucial a su te tailler une réputation dans le domaine de la mémoire vive mais n’a pas encore percé dans celui du SSD comme beaucoup d’acteurs connus, cédant le pas à des firmes encore inconnues de tous il y a peu.

Firme Taïwainaise créée en 1989 et marque incontournable dans le domaine des mémoires vives, elle n’a pour le moment pas percé dans le domaine du SSD ne se démarquant ni en terme de prix, ni en terme de performances.

Intel, géant américain né en 1968, pour le moment passif, entend jouer un rôle de premier ordre dans le développement du SSD et dans sa diffusion. Il propose actuellement avec son X25-E un SSD avec des performances de premier plan malgré un prix très élevé.

Entreprise américaine née en 1987, Kingston se lance dans le marché des SSD en se contentant, pour le moment, d’utiliser les modèles Intel X25-M et X25-E en y rajoutant simplement le logo de leur marque.

Firme chinoise créée en 2006, elle a trusté le secteur “performance” des SSD de première génération avec sa mémoire SLC. Une nouvelle génération était attendue au début de l’automne 2009 mais l’entreprise ne donne plus signe de vie.

Marque coréenne encore inconnue du grand public jusqu’en 2007, elle existait depuis 2006 sous le nom Mtron. Jadis le leader des performances, ses nouveaux SSD étaient prévus pour le début de l’automne 2009… L’entreprise est désormais en faillite.

Firme américaine fondée en 1994, Mushkin, marque bien connue dans l’univers des mémoires vives, se lance dans l’aventure des SSD avec pour objectif premier de venir concurrencer OCZ dans le secteur d’entrée de gamme.

Entreprise américaine, créée en 2000, et bien connue pour ses mémoires vives. Elle s’est lancée avec succès dans le domaine du SSD en 2007 et propose actuellement un compromis performance/prix intéressant et montre sa volonté d’innover dans ce secteur en sortant régulièrement de nouveaux modèles. OCZ a créée la sensation avec sa gamme de SSD Vertex, qui amorce un tournant décisif dans le secteur de la MLC qui accède enfin à un statut “performance”.

Entreprise américaine établie en 1985, Patriot Memory a lancé sa gamme de SSD Warp V2 aux performances on ne peut plus honorables de 175 Mo/s en lecture et 100 Mo/s en écriture avec un prix au Go de 3.28 euros, ce qui en fait l’un des SSD avec un excellent rapport performance/prix. La gamme V3 est déjà en passe de lui succèder mais elle se retrouvera probablement eclipsé par les Vertex de OCZ pourvus de mémoire cache.

Firme américaine fondée en 1985, PNY se lance timidement sur le marché des SSD avec un seul modèle à base de MLC.

Compagnie taïwanaise qui a vu le jour en 1997, PQI propose 2 catégories de SSD de 2.5" et 1.8" aux performances assez comparables. Acteur assez discret pour le moment, il est peu diffusé dans nos contrées.

Acteur pour le moment discret dans le monde du SSD, pureSilicon (pureSi) vient d’annoncer en janvier 2009 , lors du CES, un SSD d’une capacité de 1 To prévu pour le 3ème trimestre 2009.

Marque chinoise créée en 2006, RunCore vient de débarquer avec des produits couvrant une large palette de gamme, de l’entrée de gamme à la haute performance en passant par des SSD à intégrer dans les netbooks et autres appareils portables.

Géant coréen mondialement connu créé en 1938, il n’a pas annoncé de SSD susceptible d’émerger de la guerre actuelle faisant rage dans le monde de la MLC.

Firme américaine créée en 1988, elle ne fait guère de vague dans le monde du SSD pour l’instant. Elle devait créer la sensation à l’été 2009 avec sa gamme de SSD G3 aux tarifs annoncés très agressifs et à leur nouvel algorithme extremeFFS. Finalement sortis début 2010, ceux-ci se sont révélés extrêmement décevants.

Société américaine fondée en 1979, Seagate, un des acteurs majeurs du secteur du disque dur, s’est lancé dans l’aventure sans trop de réussite pour le moment.

Firme fondée à Taipei en 2003, vient de faire son apparition dans nos contrées et ambitionne de concurrencer OCZ dans le secteur des SSD à bas prix.

  • Solidata:

Entreprise chinoise fondée en 2007, Solidata n’a que peu brillé pour le moment mais elle redore son blason avec la sortie de SSD basé sur le barefoot d’Indilinx ou le contrôleur Sandforce.

Entreprise française créée en 1986, SQP est un fabricant et revendant de produits de stockage et de composants informatique. Ils vendent des SSD à base de SLC.

Entreprise fondée dans la Silicon Valley à la fin des années 1980. La marque est peu active. Des SSD Sandforce ont été annoncés à la mi-juin 2010 sans date précise de disponibilité en France.

Après son échec du HD-DVD, l’entreprises japonaise fondée en 1939 cherche à rebondir et débarque dans le monde du SSD dès l’année 2008. Ses produits ne sont pour l’instant pas encore disponibles dans nos contrées.

Firme taïwanaise toujours fondée en 1988 et spécialisée dans les modules Dram et mémoire flash, il reste actuellement discret dans le domaine du SSD.

Marque inconnue du grand public, Veritech est une compagnie Taïwanaise fondée en 1994. Elle a lancé des SSD aux performances moyennes sans vrai grand intérêt.

Société américaine fondée en 1970 qui a commencé sur le secteur des disques durs en 1988, WD s’est lancé sur le marché des SSD avec peu de réussite puisque ceux-ci ne se démarquent ni en prix, ni en performances.

Les stars du moment:

Parce que s’y retrouver dans la jungle des SSD n’est pas une chose aisée (même pour moi!), voici un petit topic en anglais relativement utile (même s’il se fait vieux) pour trouver quel contrôleur correspond au modèle de votre choix.

Attention! Les prix au Go seront désormais calculés sur la capacité réelle du SSD, c’est à dire que ça sera par exemple calculé avec 30/60/120/240 Go et non plus 32/64/128/256 Go. La taille comptée pour le Samsung F3 1 To sera de 940 Go et pour le Velociraptor 600 Go de 560 Go.

Corsair Force F120 120 Go S-ATA II 2.5"

Corsair propose sa solution Sandforce SF1200 avec des débits de 285 Mo/s en lecture et 275 Mo/s en écriture. Corsair fourni vis et adaptateur 2.5 vers 3.5". Sa garantie de 2 ans est faible au regard du marché. Son tarif de 1.70€/Go le place dans sur le podium.

Prix au 27/02/2011: 189.90 euros sur Topachat

Crucial C300 128 Go S-ATA II 2.5"

Crucial propose ici un modèle issu du SSD le plus performant du moment. Le modèle 128 Go du C300 est équipé d’un contrôleur Marvell et dispose de débits de 355 Mo/s en lecture et 140 Mo/s en écriture. Il est compatible TRIM mais également avec la norme Sata-III (Sata 6 Gbits/s) qui reste rétro-compatible avec la norme actuelle. La garantie sur ce modèle n’est que de 3 ans contrairement aux M225. Son prix de 1.78 euros/Go le place dans les meilleurs affaires.

Prix au 27/02/2011: 213 euros sur Magic PC

Crucial C300 256 Go S-ATA II 2.5"

Crucial propose ici l’un des modèles les plus performant du marché. Le modèle 256 Go du C300 est équipé d’un contrôleur Marvell et dispose de débits de 355 Mo/s en lecture et 215 Mo/s en écriture. Il est compatible TRIM mais également avec la norme Sata-III (Sata 6 Gbits/s) qui reste rétro-compatible avec la norme actuelle. La garantie sur ce modèle n’est que de 3 ans contrairement aux M225. Son prix de 1.87 euros/Go le place en bonne position étant donné les performances excellentes et sa compatibilité avec la nouvelle norme Sata III.

Prix au 27/02/2011: 449.95 euros sur LDLC

Pour les Postville, vous référencer à cette nomenclature:

SSDSA2MHxxxG201: version OEM sans le spacer de 2.5mm (7mm)
SSDSA2MHxxxG2R5 : version BOX avec spacer 2.5mm (9.5mm) et rails de fixation 3.5"
SSDSA2MHxxxG2C1 : version OEM avec spacer 2.5mm (9.5mm)

Intel X25-M 120 Go Postville (aka G2)S-ATA II 2.5"

Version 120 Go du Postville. Successeur du très célèbre X25-M qui avait créé la sensation en septembre 2008, ce postville maintient les mêmes caractéristiques en terme de débit, soit 250 Mo/s en lecture et 100 Mo/s en écriture.
Il est également compatible TRIM. Son tarif de 1.64 euros/Go le place dans les SSD les moins chers. Sa garantie de 3 ans est dans la moyenne mais il est à noter qu’Intel prend en charge les frais de renvoi avec enlèvement sur site, chose assez rare pour être signalée.

Prix au 27/02/2011: 184.90 euros sur Topachat

OCZ Vertex 2E 60 Go S-ATA II 2,5"

Ce SSD, basé sur le contrôleur Sandforce SF-1200, est une petite bête de performances. Avec des débits à 285 Mo/s en lecture et 275 Mo/s en écriture et des IOPS à faire pâlir ses concurrents, il est dans ce qui se fait de mieux actuellement. La version “E” du Vertex 2 est une version avec plus d’espace de stockage, grâce à une diminution de l’espace de réservation des NAND en le réduisant de 27 à 12%. Son tarif de 1.86 euros/Go lui donne un bon avantage. Il supporte le TRIM même si son implémentation reste quelque peu capricieuse pour le moment (en fonction des plateformes et des pilotes). Sa garantie de 3 ans est dans la moyenne.

Prix au 27/02/2011: 103.90 euros sur Topachat

OCZ Vertex 2E 120 Go S-ATA II 2,5"

Ce SSD, basé sur le contrôleur Sandforce SF-1200, est une petite bête de performances. Avec des débits à 285 Mo/s en lecture et 275 Mo/s en écriture et des IOPS à faire pâlir ses concurrents, il est dans ce qui se fait de mieux actuellement. La version “E” du Vertex 2 est une version avec plus d’espace de stockage, grâce à une diminution de l’espace de réservation des NAND en le réduisant de 27 à 12%. Son tarif de 1.69 euros/Go le place à un excellent rapport performance/prix. Il supporte le TRIM même si son implémentation reste quelque peu capricieuse pour le moment (en fonction des plateformes et des pilotes). Sa garantie de 3 ans est dans la moyenne. C’est le coup de coeur du moment.

Prix au 27/02/2011: 189.50 euros sur Topachat

Version 3.5": Prix au 27/02/2011: 179.90 euros (1.61€/Go) sur Topachat

Code de réductions:

Topic codes de réductions

Codes de Réductions

L’évolution des prix:

Cours de la mémoire Flash DrameXchange

http://img410.imageshack.us/img410/5981/testxm4.png

http://img519.imageshack.us/img519/6725/46000944.png

L’évolution du marché:

http://img216.imageshack.us/img216/852/img0025840.png

Les dernières estimations montrent qu’en 2011, 60 millions de SSD devraient être vendus contre seulement 13 millions en 2009 à comparer aux 2 millions vendus en 2008.

La 3ème génération de SSD sera disponible à partir du 2ème ou 3ème trimestre 2010.

Oui! Les prix des SSD baissent!!

S’il y a bien une impression si tenace qu’elle revient très régulièrement dans les débats, c’est bien cette impression que les SSD ne baissent pas vraiment, ou trop peu. Certains désespèrent, d’autres s’impatientent. Pourtant, nos petits amis à puces se dirigent doucement vers une démocratisation de plus en plus importante.

Pourquoi cette impression tient à 2 principaux facteurs:

  • D’une part, les modèles se succèdent à un rythme relativement important: Les modèles s’enchaînent dans les line up des assembleurs et du coup, peu de modèles restent plus de 6 mois au catalogue ce qui ne permet pas de bien apprécier la baisse des prix tout au long de l’année.

  • D’autre part, les tailles augmentent: jadis 32 Go, aujourd’hui 128 Go. Les standards se font de plus en plus gros et du coup, les regards s’y tournent mais l’augmentation de taille entraîne également une augmentation de prix. C’est donc logique qu’un 64 Go d’aujourd’hui ne voit pas un gouffre en terme de différence de prix avec un 32 Go d’autrefois. Il ne manquerait plus que les tailles doubles en même temps que les prix soient divisés par 2 (ça serait trop beau!).

Enfin, je terminerai sur le fait que les modèles nouveaux qui voient le jour sur le marché sont de plus en plus performants et donc l’effet baisse de prix se fait forcément moins sentir. C’est un peu pareil partout, les CG sont un bon exemple: les performances augmentent et les prix s’étalonnent toujours dans une même fourchette globalement. Ici c’est la même chose, il y a un coût d’innovation à supporter pour le consommateur, la R&D étant rarement gratuite. Il ne faut pas aussi oublier que la mémoire flash est soumise aux aléas de l’offre et de la demande qui peuvent faire flamber ponctuellement les prix et donc ralentir le schéma de baisse de façon périodique (merci Apple ^^).

Comme je sens ici quelques sceptiques, il suffit d’illustrer ceci avec des exemples concrets de cette importante baisse au cours du temps:

Le vertex 120 Go a été lancé en France en janvier aux alentours de 500-520€.
8 mois plus tard on trouve ses clones à 270-280€ (~45% de baisse: prix quasiment divisé par 2) et le Vertex 120 Go à 310€ soit ~35% de baisse malgré tout sur 8 mois.

L’intel X25-M 1ère génération a été lancé à la fin de l’été 2008 pour 595$ les 80 Go et 945$ les 160 Go. Les nouveaux X25-M Postvile 10 mois plus tard sont à 225 et 440$ pour 80 et 160 Go, soit respectivement 62 et 53% de baisse. Les V2 sont 25 à 30% moins onéreux que les prix les plus bas atteints par les V1 avant le lancement du Postville. Et les exemples pourraient se multiplier.

Y a-t-il besoin d’en dire plus? :ane:

10 jours avec un SSD Memoright GT 64 Go:

Grâce à la générosité de Memoright et plus principalement Invant, son distributeur français, je vous présente sur ce lien une revue complète de mes 10 jours d’utilisation du SSD Memoright.

Lien présentation: cliquez ICI

L’actualité:

  • Les ingénieurs d’Intel s’affairent à fiabiliser leurs performances dans le temps. Les prochains X25 et X18 pourraient ainsi offrir des débits en pointe à la baisse, mais des performances générales beaucoup plus linéaires. Les écritures aléatoires 4 Ko, déjà très bonnes sur les SSD actuels, auraient encore été améliorées. Ces Postville “refresh” sont attendus pour le 4ème trimestre 2010. (PCWorld)

N’hésitez pas à consulter les différents sites et les forums constructeurs pour être au fait des dernières annonces et projets.

  • Une Alliance pour le SSD

Les disques de mémoire Flash ou SSD devraient se généraliser dans les années à venir. Pour éviter certains abus et encadrer leurs productions et spécifications, une alliance qui regroupe plusieurs grands fabricants taiwanais. Les membres de cette alliance devrait proposer à partir de juillet un premier protocole d’évaluation et de tests pour les SSD.

Pour le moment, cette alliance regroupe Toshiba, A-Data Technology, Transcend Information, Silicon Power Computer & Communications, ASMedia Technology, CoreSolid Storage, JMicron Technology et Allion Test Labs. Cette alliance espère maintenant séduire et attirer dans ses rangs d’autres grands noms de l’industrie comme Hynix, Intel, Micron et Samsung et des grands fabricants de SSD.

Le but serait bien entendu de « standardiser, d’évaluer et d’indiquer au mieux » les performances et la durée de vie des SSD.

Les tests:

  • Mars 2010:
  • Février 2010:
  • Janvier 2010
  • Décembre 2009:
  • Novembre 2009:
  • Octobre 2009:
  • Septembre 2009:
  • Août 2009:
  • Juillet 2009:
  • Juin 2009:
  • Mai 2009:
  • Avril 2009:
  • Mars 2009:
  • Février 2009:
  • Janvier 2009:
  • Décembre 2008:
  • Novembre 2008:
  • Septembre 2008:
  • Août 2008:
  • Juillet 2008:
  • Juin 2008:
  • Mai 2008:
  • Avril 2008:
  • Mars 2008:
  • Janvier 2008:
  • Décembre 2007:

Sources principales:

Clubic

Tom’s Hardware

MatBe

Anandtech
Message edité le 30/11/2011 à 09:55

0 Likes

#3

Bien joué !
Un bon topic utile:super:


Et bien expliqué .
Je pense que tu devrai changer ton titre pour un truc plus alléchant, parce que j'ai franchement hésité a cliquer dessus, croyant que c'était justement une question sur le fonctionnement des Lecteurs SS justement ! Edité le 17/06/2008 à 00:06
0 Likes

#4

j’arrive pas à la modifier :paf:


je finirai demain là je suis crevé :o
0 Likes

#5

Bonne idée ce topoc :oui:

0 Likes

#6

un revenant :paf:

j’arrive pas à changer mon titre je voudrais mettre

SSD: la Révolution du stockage

0 Likes

#7

Effectivement, l’édit des titres délire un peu. Je l’ai changé. Félicitations, joli topic !

0 Likes

#8

c’est loin d’être fini, ne me remerciez pas déjà :ane:
oui l’edit du titre me posait un souci :o

0 Likes

#9

Ouè je reviens doucement :icon_biggrin:

Tu as le probleme à editer le titre que de ce topic ou c’est généralisé à tous tes sujets ?

0 Likes

#10

En esperant que cette techno se démocratise très très vite…

0 Likes

#11

heu j’ai pu éditer hier le titre de mon topic sur les SED mais là je peux plus sur celui là :paf:

0 Likes

#12

999.90€ les 64Go :ane:

0 Likes

#13

oui je sais et alors? :ane:

0 Likes

#14

bon là j’arrête pour le moment! je continuerai en fin d’après midi :paf:

0 Likes

#15

les différents acteurs du marché, les annonces des constructeurs, les stars du moment, les différents tests, les différentes formes de production des SSD, les graphiques d’évolution des prix :ane:

0 Likes

#16

salut qhyqhy

tu t’es vraiment décarcassés pioufff
joli topic

0 Likes

#17

Il bosse le Kiki, c’est bien :oui:. Cela peut etre une révolution le SSD, dans 2 ou 3 ans. Attendre que les fabriquant liquides leurs HDD actuel et investissent en R&D pour que cela soit fiable et enfin abordable. Donc attendre. :arf:

0 Likes

#18

boah! c’est déjà fiable :ane:

0 Likes

#19

Bonne continuation pour le topic Qhyron , c’est une excellente initiative que je ne manquerai pas de suivre :oui: !

0 Likes

#20

bon je continue vers 21h :ane:

0 Likes