Technologie des futurs CPU

27 décembre 1999 à 10h07
0
Jusqu'à présent la fameuse loi de Moore qui dit que la puissance de calcul double tous les 18 mois a toujours été vérifiée. Chaque nouvelle génération de processeur est ainsi cadencée plus vite, avec une technologie de gravure plus petite et un nombre de transistors toujours plus grand : on est ainsi passé du 4004 d'Intel en 1971 à 2300 transistors au Pentium II actuel en comprenant la bagatelle de 7.5 millions. Malheureusement le processus de fabrication des puces n'a pas changé depuis que Von Neumann en définisse le principe dans les années 40. Ainsi on grave toujours plus fin pour augmenter la fréquence et nous en sommes aujourd'hui à une gravure en 0.25 micron. Mais ce modèle atteindra vraisemblablement ses limites en 2014, les Processeurs seront alors cadencés à 30 GHz.

"L'effet tunnel"

A partir de 0.05 microns les électrons qui circulent dans le microprocesseur n'obéissent plus au loi de la physique classique, ainsi un électron circulant dans un couloir peut très bien en sortir, d'où un processeur qui renverrait des résultats incontrôlés. Les physiciens appellent cela "l'effet tunnel".

L'ordinateur quantique

On entre ici dans le domaine de l'infiniment petit, on ne parle plus de bits mais de qubits. Ces derniers ont la particularité d'être très instable, disparaissant par exemple après une tentative de lecture ou une rencontre avec de la matière. C'est pourquoi pour corriger ces disparitions on met en place des systèmes de corrections d'erreurs. Certains scientifiques pensent que toutes les erreurs ne sont pas corrigeables alors que d'autres argumentent sur le contraire. De plus contrairement aux circuits classiques qui se monte en série facilement, les processeurs quantiques semblent difficiles à s'assembler les uns à la suite des autres : on reste dans l'attente d'une découverte qui faciliterait les choses... Néanmoins il y'a un domaine ou le quantique a de l'avenir : la sécurité de transmission. En effet nous avons vu que dans les systèmes quantiques lire c'est détruire le qubit, une communication interceptée sera donc immédiatement repérée.

Les processeurs asynchrones au secours de la chauffe

Avec la diminution de la technologie de gravure, on place toujours plus de transistors dans un espace réduit. Avec cette augmentation de la concentration, les processeurs ont tendance à chauffer plus et c'est pourquoi les radiateurs ou autres ventilos sont courants aujourd'hui. Le problème vient du fait que toutes les parties même inoccupées du processeur marchent : c'est la caractéristique des processeurs synchrones. Avec les asynchrones l'horloge disparaît et chaque unité du circuit ne travaille que lorsqu'on lui a imposé une tâche d'où une chauffe réduite car le reste du temps elle est éteinte. Malheureusement le système asynchrone entraîne une difficulté de la programmation, c'est d'ailleurs la raison pour laquelle on l'avait délaissé à l'époque au profit des systèmes synchrones. Ce mode devrait avoir un grand essor dans les mobiles, là où l'autonomie doit être maximale et par conséquent la consommation d'énergie au plus bas.

Des systèmes spécialisés : l'ordinateur optique et à ADN

L'ordinateur optique repose sur l'idée de remplacer les électrons circulants dans les processeurs par des photons, composants de la lumière. Au vu des faibles densités possibles avec un tel système, les électrons l'ont provisoirement emportés. Aujourd'hui on s'intéresse à produire des processeurs optoélectroniques : les avantages de l'utilisation de la lumière viennent du fait que même si elle ne peut pas traiter toutes les instructions, certains calculs peu complexes s'y exécutent à très grande vitesse. On peut donc s'attendre à voir utiliser les processeurs optiques dans la reconnaissance des formes...

L'ADN, qui contient l'ensemble du génome d'un individu est composé de quatre bases azotées qui s'organise par paire : A et T, C et G. En 1994, Léonard Adleman annonce qu'il a réussit à résoudre un problème mathématique à l'aide de l'ADN : "celui ou un voyageur de commerce doit trouver le trajet le plus court pour relier x villes sans passer deux fois par la même". Après quelques jours de manipulations le résultat lui est apparu codé à travers une séquence d'ADN. Vous vous dîtes sûrement ce qu'apporte en plus l'ADN à nos systèmes déjà capables de résoudre des épreuves de ce type. Et bien cet avantage viendrait de sa capacité à traiter un grand nombre de donnés, résolvant des problèmes où les supercalculateurs auraient mis plusieurs siècles de calculs. Son application devrait donc se faire sur le cassage des algorithmes les plus complexes.

Qui pourra payer ?

Avec la finesse de gravure actuelle, les ingénieurs sont obligés de se munir de véritables tenues de cosmonautes pour travailler dans des salles blanches où la poussière est l'ennemi n°1 : la course au plus petit entraîne un bond en avant des investissements à fournir. Aujourd'hui trois milliards de dollars sont nécessaires à la construction des usines, c'est pourquoi lorsque vous acheté un processeur vous payez avant tout la fabrication de l'usine... A chaque génération de processeur le coût de l'usine est multiplié par deux, on comprend bien que peu de fondeurs aient les moyens de rester dans la course. Intel, AMD, ou National Semiconductor (qui a racheté Cyrix) semblent les mieux partis pour rester même si au final certains laisseront le soin de faire produire leurs processeurs à d'autres comme l'a fait Digital avec Intel (c'est pourquoi les processeurs Alpha sont fabriqués dans les usines Intel).
Haut de page
Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires