Flops high tech 2009 : vous y avez echappé (ou pas)

01 janvier 2010 à 00h01
0

Quand la technologie « révolutionne » son temps

Intel Larabee : circulez il n'y a rien à voir

Après son aventure il y a plusieurs années dans le monde des cartes graphiques avec la puce i740, Intel avait définitivement abandonné ce marché, préférant se consacrer aux solutions avec circuit graphique intégré, comme les fameux chipsets de série G, que l'on retrouve dans la plupart des ordinateurs portables notamment. En se désintéressant du marché de la carte graphique, Intel a ouvert une voie royale à ATI, depuis racheté par AMD, et NVIDIA. À tel point que la concurrence des puces graphiques de ses derniers est devenue intolérable pour Intel : le GPGPU taille en effet des croupières aux sacro-saintes offres professionnelles d'Intel... Quand une puce graphique offre de meilleures performances pour du calcul générique que le plus élaboré des processeurs Xeon... Intel voit rouge !

Sentant le vent tourner, Intel a donc annoncé il y a plusieurs années son retour sur le marché de la carte graphique avec la mise au point d'une puce graphique fonctionnant en x86 et permettant d'effectuer un rendu de type lancé de rayons en temps réel. Révolutionnaire sur le papier, la puce en question étant censée embarquer plusieurs dizaines de cœurs x86, et Intel s'était donné les moyens de ses ambitions en constituant le Visual Computing Group, une unité de travail dédiée à la mise au point du projet connu sous le nom de code Larabee et en investissant des millions de dollars. Maintes fois reporté, Larabee a peu à peu pris l'eau et la dernière apparition publique d'une carte Larabee lors de l'IDF 2009 faisait peine à voir. Très loin du lancé de rayons en temps réel, la démo 3D saccadée rappelait l'époque ... du GeForce 2 ! Depuis, Intel a du annoncer publiquement que la première génération de Larabee ne verrait pas le jour sous la forme d'un produit commercial... Elle servira de plate-forme de développement pour les développeurs de jeu en attendant la deuxième génération !

Fini donc l'époque des déclarations tonitruantes d'Intel annonçant que la 3D d'aujourd'hui était condamnée, que Larabee serait bien plus performant que la plus rapide des cartes graphiques d'AMD ou de NVIDIA... Avec un tel nom... la traversée du désert était-elle... prédestinée ?

NVIDIA : pas de DirectX 11... en 2009 !

00C8000002698308-photo.jpg
Up & down... voilà qui résumerait assez bien la situation de NVIDIA. Alors que la firme au caméléon avait avec le GeForce 8 un avantage technologique certain sur la concurrence, NVIDIA s'est endormi sur ses lauriers en choisissant de privilégier la rentabilité sur le court terme à l'innovation technologique sur le long terme, du moins en ce qui concerne la 3D pour les joueurs. En déclinant à loisir l'architecture GeForce 8, avec plus de variantes du G92 qu'il n'est possible de les compter, NVIDIA a saturé le marché et quelque peu lassé ses clients les plus fidèles en proposant systématiquement la même puce avec quelques variations certes.

L'arrivée du GT 200 et de la série 200 des GeForce aura permis à NVIDIA de restaurer son leadership pour quelques mois à peine... Coûteuse, massive, la puce ne prenait toujours pas en charge DirectX 10.1, un véritable péché d'orgueil aujourd'hui inexcusable. Pas plus excusable d'ailleurs que la politique de prix de la firme qui a tout fait pour maintenir des prix élevés sur ses solutions alors qu'AMD cassait les prix, quitte à rendre son offre bien moins concurrentielle. Cela ne plaira pas au marketing de NVIDIA mais CUDA ou PhysX ne justifient pas un investissement de 80 à 100 euros supérieur à l'offre de la concurrence...

Et il aura fallu de très longs mois à NVIDIA avant de pouvoir décliner l'architecture trop ambitieuse du GT 200. Bilan quand NVIDIA parvient enfin, un an après la sortie du GeForce GTX 280, à proposer une première déclinaison de l'architecture avec le GeForce GT 240, AMD propose... une gamme complète de puces graphiques DirectX 11 ! NVIDIA a donc raté le virage DirectX 11, et si le géant de la puce graphique doit bientôt combler cette lacune avec les cartes issues de l'architecture « Fermi », il est cruellement en retard. Espérons pour NVIDIA que les développeurs de jeu ne lui fassent pas payer le prix fort pour ce retard...


Femtocell : flop 2009, top 2010 ?

0096000002698310-photo-femtocell.jpg
Box Femtocell
En juin 2008, un communiqué de presse de Motorola annonçait fièrement que 2009 allait être une année-clé pour l'adoption de la technologie Femtocell en Europe. D'après ce constructeur, une étude aurait démontré que 40 % des personnes interrogées se déclaraient prêtes à investir dans une solution Femtocell. Ce pourcentage surprenant nous rappelle une phrase de Mark Twain qui prétendait qu'il existe trois types de mensonges : les mensonges, les sacrés mensonges et... les statistiques. Le bilan est sans appel : en ce début d'année 2010, la majorité des internautes amateurs de nouvelles technologies n'ont encore jamais entendu parler de cette fameuse technologie mystère.

Le déploiement technique est tout aussi désastreux : pour l'heure ces équipements ne sont pas en vente et aucun fournisseur d'accès n'a encore mis le pied à l'étrier. Quel procédé se cache sous ce nom barbare ? Pour faire simple, cette technologie consiste en l'intégration d'une puce 3G à l'intérieur d'une passerelle résidentielle (routeur, box, etc.). L'intérêt du procédé est multiple, mais on retiendra surtout trois points forts. Tout d'abord, le Femtocell pourra entrainer une réduction de coût non négligeable pour le client final. En effet, un mobile 3G pourra se connecter directement à une box (et non à l'antenne relais d'un opérateur) pour acheminer les appels sur un réseau VoIP.

En ensuite, on pourra ajouter que le procédé permet d'améliorer la couverture 3 G à l'intérieur des habitations (dans les grands ensembles, la propagation du réseau est souvent perturbée). Troisième point et non des moindres : l'arrivée massive de box compatibles Femtocell pourrait permettre à un fournisseur d'accès de créer rapidement un embryon de réseau mobile en agglomération ! À l'heure où Free a officialisé l'obtention de sa licence de téléphonie mobile, le déploiement du Femtocell pourrait bien connaitre un essor rapide. Alors, ce flop 2009 se transformera-t-il en top 2010 ? Réponse en janvier prochain. Une seule chose est certaine : les associations qui luttent pour la réduction des antennes relais ne verront pas forcément l'arrivée du Femtocell d'un très bon œil.

Snow Leopard : 64 bits et technologies innovantes pour tous ... mais pas tout de suite !

00FA000002698312-photo.jpg
Contrairement à ses prédécesseurs félins, Snow Leopard est arrivé à pas de velours, vendu à 29 euros dans sa version « mise à jour » et étrangement affublé du slogan « 0 new features ». Il n'en fallait pas plus pour entendre parler de « service pack payant ». Oubliées les déferlantes de nouvelles fonctions et côté interface, il faudra compter sur quelques améliorations microscopiques. Habituellement friand de ce type d'arguments « bling-bling », le grand public restera sur sa faim et ne fera pas la différence entre le Leopard classique et son cousin des neiges. Pour ce qui est des nouveautés annoncées, il restera indifférent face aux termes barbares de Noyau 64 bits, OpenCL, Grand Central Dispatch, QuickTime X.

Des promesses ambitieuses ...« Snowie » intègre une multitude de nouveautés, mais malheureusement pour le géant de la « Com », elles sont essentiellement sous le capot. Au menu, on retrouve la généralisation du 64 bits, l'OpenCL permettant d'utiliser la carte graphique pour des calculs autres que le rendu 3D / 2D, le Grand Central Dispatch optimisant la gestion des configurations multicoeurs pour les applications et enfin QuickTime X. Si les promesses semblent alléchantes sur papier, elles apparaissent rapidement ambitieuses voir irréalisables actuellement dans la pratique.

Tout d'abord, le fameux 64 bits pour tous. Démarrant par défaut sur le noyau 32 bits, « Snow Leopard » a besoin à la fois d'un processeur et d'un EFI 64 bits pour passer sur le noyau 64 bits. Il est évidemment possible, comme sous Leopard, de lancer des applications 64 bits avec un noyau 32 bits, mais l'intérêt du noyau 64 bits est justement de gérer de manière plus efficace les grandes quantités de mémoire vive rendues possibles par le 64 bits. En plus d'exclure de nombreux Mac, somme toute récents, de l'exécution de ce noyau, on découvre que des machines possédant les caractéristiques requises ne parviennent pas à le lancer pour autant. Au final, seuls les derniers modèles d'iMac, les MacBook Pro à partir de la génération Penryn, certains Mac Pro et XServe pourront en bénéficier réellement. A condition bien sur de disposer d'applications qui l'exploitent : si la plupart des modules de Mac OS X sont passés au 64 bits, c'est encore le désert au niveau des applications majeures. Même Logic et Final Cut, que l'on pensait revus et corrigés pour Snow Leopard, restent en 32 bits dans leurs dernières versions, alors que Photoshop devra attendre la version CS5 pour bénéficier du 64 bits. La jouissance et l'intérêt immédiat du 64 bits sont pour le moins remis en cause.

Concernant l'OpenCL. Un grand nombre de Mac Intel et notamment d'iMac n'en verront jamais la couleur. Seuls les possesseurs de cartes NVIDIA Geforce 9400M, 9600M GT, 8600M GT, GT 120, GT 130, GTX 285, 8800 GT, 8800 GS, Quadro FX 4800, Quadro FX 5600 ou ATI Radeon 4850 et 4870 pourront en bénéficier. Même topo pour QuickTime X, outre ses quelques fonctions novatrices, on apprend que la prise en charge de l'accélération graphique sera réservée aux heureux propriétaires de Geforce 9400M. Pour Grand Central Dispatch, bien que certaines applications intégrées exploitent déjà cette technologie, pour l'heure aucun autre programme indépendant ne l'utilise.

Failles de sécurité et pertes de données : Outre les quelques bogues que l'on a l'habitude de constater à la sortie d'un nouvel OS, « Snow Leopard » s'est offert deux cafouillages supplémentaires des plus étonnants. D'une part « Snowie » embarquait la version 10.0.23.1 du Flash Player d'Adobe et bien qu'Adobe ait fait le nécessaire pour publier Flash Player 10.0.32.18, le processus de mise à jour vers Snow Leopard écrasait le correctif installé pour le remplacer par la version truffée d'une douzaine de failles de sécurité. D'autre part, de nombreux utilisateurs ont eu la mauvaise surprise de voir l'intégralité de leurs données et préférences supprimées après avoir accédé à un compte invité. Apple aura attendu la version 10.6.2 de Mac OS X pour corriger ce bogue pour le moins handicapant.

Les interfaces tactiles (pour les desktops) : la vérité est ailleurs ?

015E000002552208-photo-ordinateur-de-bureau-hp-touchsmart-600-1050.jpg
Notre prochain comparatif de trois PC tactiles sous Windows 7 nous le montrera encore : l'écran tactile est décidément mieux sur nos Smartphones que sur nos PC de bureaux. Nous avions, en début d'année, testé l'Eee PC Top d'Asus et le X 5000TA de Shuttle sans avoir été convaincu par ces nettops dont l'interface tactile nous avait alors semblé quasiment inutile. Nous fustigions le manque flagrant d'applications dédiées à l'interface tactile de ces ordinateurs.

L'arrivée de Windows 7 pouvait changer la donne : le dernier opus du système d'exploitation de Microsoft gère le multipoint, contrairement à son prédécesseur, et le géant de Redmond s'est même fendu d'un Touch Pack comprenant six applications entièrement dédiées à l'interface tactile. Ces dernières sont plutôt bien conçues et plaisantes, mais n'ont malheureusement rien d'indispensable... En tout cas rien de suffisamment motivant pour s'infliger des douleurs certaines au bras.

Car le problème se situe bien là : intégré dans une table à la façon Surface, un tel PC aurait probablement plus de succès que sous sa forme actuelle, où il hésite entre PC classique et PC multimédia, avec un écran tactile qui ne répond pas à un réel besoin de l'utilisateur. Le tactile sur le PC n'est probablement pas mort, mais la façon dont il est utilisé aujourd'hui nous laisse sceptiques sur la réussite commerciale des produits proposés.

les jeux Free : après trois ans d'attente, la déception

00FA000002611472-photo-univers-jeux-sur-la-freebox-hd.jpg
Les abonnés Free sont bien évidemment au courant, le fameux point d'interrogation restant sur l'interface de la Freebox HD a connu ses dernières heures en cette fin d'année. À sa place, un logo présente fièrement la partie jeu de la fameuse box de Free. Fièrement ? Retour en arrière...

Lorsque qu'Iliad, maison-mère de Free, a présenté sa Freebox HD courant 2006, la télécommande associée à ce boîtier a évidemment suscité la curiosité : ses boutons de couleurs, son joystick et les boutons latéraux laissaient sans l'ombre d'un doute présager une utilisation ludique. C'était il y a 3 ans et demi. L'idée n'était donc pas neuve chez Free lorsqu'en novembre de cette année, le FAI a présenté son dernier bébé. Difficile donc d'excuser la faiblesse de cette nouveauté qui présente un certain nombre de défauts relativement gênants, à commencer par l'impossibilité d'effectuer des sauvegardes.

La télécommande infrarouge n'est pas non plus le meilleur périphérique pour jouer à un jeu vidéo. Tout d'abord, le léger temps de latence inhérent à cette technologie entraine une hécatombe avec les jeux de plate-forme (par exemple). De plus, avec l'avènement de la commande radio sur les consoles « nex gen », on avait presque oublié la gêne provoquée par une personne qui passe entre la commande et la box. Ne parlons même pas des FPS fortement pénalisés par l'absence de stick analogique. Pas de chance : Free a justement misé sur les ancêtres du FPS que sont Duke Nukem 3D et Doom pour son offre de « jeux 3D ».

Free confirme sa volonté d'innover, mais il faut bien avouer que les amateurs de jeux « old school » s'attendaient vraiment à mieux. La donne n'est pas encore définitive, il n'est pas impossible qu'une éventuelle mise à jour providentielle vienne apporter les fonctionnalités majeures qui font défaut aux émulateurs de la partie « jeux » de le Freebox. Il ne nous reste plus qu'à bruler un cierge pour qu'une option de sauvegarde - et pourquoi pas - deux nouvelles émulations de consoles 16 bits s'invitent dans l'interface de notre boite à images bien aimée !

Modifié le 01/06/2018 à 15h36
0
0
Partager l'article :

Les actualités récentes les plus commentées

Automobile : le gouvernement envisagerait un malus lié au poids des véhicules
Le Royaume-Uni devrait interdire les ventes de voitures thermiques en 2030
Après Bethesda, Microsoft tease, déjà, un autre rachat à venir ?
Voiture électrique : allez-vous sauter le pas et à quel prix ?
L'adoption de Firefox en chute de 85%
Batteries de voitures : et si on allait plutôt chercher les matériaux au fond des océans ?
Xbox Series X | S : le module d'extension d'1 To NVMe coûtera 269,99€ en France
Battery Day : des batteries révolutionnaires et une Tesla à 25 000 dollars sous trois ans
La Model 3 échoue lors d'une démonstration de son système de freinage autonome
RTX 3080 : de nombreux bugs chez les premiers acheteurs de modèles custom (MàJ)
scroll top