Des puces à capacités cognitives chez IBM ?

01 juin 2018 à 15h36
0
00C8000004363784-photo-ibm-logo.jpg
IBM est-il en passe de réaliser un vieux fantasme : donner à l'ordinateur les capacités du cerveau humain ? Alors que des annonces - généralement tirées par les cheveux - viennent faire régulièrement état d'avancées, et que cela reste pour l'heure de la science-fiction, les chercheurs d'IBM seraient parvenus à doter leurs processeurs de capacités cognitives. Cela mettrait l'apprentissage, donc la collecte automatique, le traitement et le classement de données aléatoires, à la portée de la machine.

Avancée majeure, pas en avant... Alors que les ordinateurs imitant des cerveaux humains sont un fantasme vieux comme l'histoire de l'informatique, IBM ne manque pas de qualificatifs pour décrire l'avancée de ses chercheurs. Au centre de la nouvelle : des puces, expérimentales, dotées « de perception, d'action et de cognition. » Soit, finalement, capables d'apprendre. Deux prototypes de processeurs ont été annoncées par les chercheurs d'IBM, après un projet de trois ans, fruit d'un partenariat entre IBM et plusieurs universités américaines, avec le soutien de l'agence en charge des projets de recherche de la Défense américaine (Darpa).

Les puces en question sont des processeurs massivement parallèles à haute efficacité énergétique. Elles sont conçues différemment : alors qu'elles se basent sur des « cœurs neurosynaptiques », équipés chacun de 256 noeuds ayant la fonction de neurones, l'une d'elles est reliée à 262 144 modules de mémoire imitant des synapses, tandis que l'autre est reliée à 65 536 de ces « synapses ». IBM combine ainsi les principes des nanosciences, de la neuroscience, et du calcul intensif, selon le communiqué.

Dans quel but ? Pour IBM, il s'agit de « créer un système qui est non seulement capable d'analyser de l'information complexe depuis des sources sensorielles multiples, mais aussi de "repenser" automatiquement ses propres connexions » à la volée, au fur et à mesure qu'il interagit avec son environnement. Il est donc clairement question de « rivaliser avec le cerveau humain en terme de compacité et de consommation. » « C'est une initiative majeure pour dépasser le paradigme de Von Neumann (1), qui définit l'architecture informatique depuis plus d'un demi-siècle, » estime Dharmendra Modha, en charge du projet chez IBM. « Les applications futures de l'informatique nécessiteront de plus en plus de fonctionnalités qui ne seront pas efficaces au travers des architectures traditionnelles. »

(1) Pour les modèles d'architecture Von Neumann, qui limitent les capacités informatiques à cause de l'effet appelé « goulet d'étranglement Von Neumann », voir l'article de Wikipédia en anglais.
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
0
0

Actualités du moment

Musique : YouTube trouve un accord avec des éditeurs indépendants
Nokia publie la mise à jour Symbian Anna pour smartphones existants
L'Intel SSD 320 retrouve la mémoire avec un nouveau firmware
L'Asus Mars II est arrivée à la rédaction : déballage
L'ESA a organisé le premier direct en 3D depuis l'Espace
La police de Santa Cruz teste un logiciel qui prédit les crimes
Samsung SSD 830 : mémoire toggle DDR en 2x nm et jusqu'à 512 Go (màj)
Des chercheurs étudient le comportement des Fanboys
AMD : un A-Series triple-cœur, du Turbo et un Athlon II FM1
Insolite : un réveil sur iPhone qui donne votre argent si vous ne vous levez pas
Haut de page