Après plusieurs reports consécutifs, AMD lançait à la mi-mai sa nouvelle puce graphique haut de gamme, le Radeon HD 2900 XT. Attendu avec beaucoup d'impatience, le R600 n'a hélas pas convaincu les foules, le retard d'AMD n'ayant visiblement pas permis à la firme de Sunnyvale de proposer une puce plus rapide que le GeForce 8800 de NVIDIA, pourtant sorti en fin d'année dernière. Et alors qu'AMD justifiait à la veille du CeBIT l'énième retard du R600 par sa volonté de lancer simultanément une gamme complète, il aura fallu attendre un peu plus d'un mois entre le lancement du Radeon HD 2900 et l'arrivée aujourd'hui des Radeon HD 2600 XT et Radeon HD 2400.
Pratiquement un an après le lancement de son chipset P965, un jeu de composants assez populaire qui anime bon nombre de Cartes mères, le fondeur Intel revient sur le devant de la scène avec le P35, un tout nouveau chipset pour la désormais vaste famille des Processeurs Intel Core 2. Visant les cartes mères milieu de gamme, le P35, également connu sous le nom de code Bearlake, est présenté par Intel comme étant non seulement performant, mais aussi économique sur le plan énergétique et qui plus est compatible Windows Vista Premium, ce dernier argument étant plutôt inattendu pour un chipset.
Bien que NVIDIA soit historiquement connu pour ses puces graphiques, la firme de Santa-Clara développe et conçoit depuis plusieurs années déjà des chipsets, ces jeux de composants indispensables à toute carte mère. Depuis le tout premier nForce dédié aux Processeurs Athlon, la division chipsets de NVIDIA a fait du chemin, à tel point que des acteurs pourtant historiques comme VIA ou SIS sont aujourd'hui relégués au rang d'outsiders sur ce marché très compétitif.
C'est la rentrée et, en attendant le lancement du G80, sa première puce graphique DirectX 10, NVIDIA nous revient avec le GeForce 7900 GS. Déjà disponible depuis quelque temps pour les fabricants de PC, le GeForce 7900 GS fait aujourd'hui son apparition en version boîte, permettant ainsi à NVIDIA de compléter encore et toujours sa gamme GeForce 7. Depuis l'avènement des GeForce 7800, en juin 2005, les représentants de la famille GeForce 7 n'auront cessé de se multiplier, au point qu'il existe aujourd'hui plus d'une douzaine de références différentes, sans compter les puces à destination des Ordinateurs Portables.
Ce n'est pas une nouveauté, le petit monde de la carte graphique connaît chaque mois l'arrivée de nouvelles références, ou plus exactement de nouvelles déclinaisons des puces graphiques vedettes, et ce, que ce soit chez ATI ou chez NVIDIA. L'objectif des deux géants de la 3D étant d'avoir le catalogue le plus riche possible pour couvrir tous les besoins possibles et imaginables.
Les semaines passent et ATI continue de compléter ses gammes de Cartes Graphiques presque inexorablement. Il faut bien reconnaître qu'après le lancement de la famille Radeon X1000, en fin d'année dernière, de sérieux trous existaient dans le catalogue rafraîchi d'ATI. À l'occasion du CeBIT, ATI comblait un premier manque avec le lancement, en catastrophe, de la Radeon X1800 GTO, une carte milieu de gamme destinée à concurrencer le tout frais GeForce 7600 GT avec un positionnement prix qui s'établit aujourd'hui autour des 200 euros.
Visite d'une usine « tourne pages »Est-ce la fin du papier ? Faut-il tout numériser ? Google fait-il main basse sur la culture ? Y a-t-il urgence à mettre en place une riposte européenne ? Ces différentes questions ressurgissent de plus en plus fréquemment dans l'actualité, qu'elle soit grand public, politique ou orientée nouvelles technologies. Il y a matière donc à faire un « point » sur la situation, tant les données et les enjeux nous dépassent - on parle numérisation sur 300 ans pour Google Print ! - et en même temps nous touchent de près : si nos archives sont perdues ou se dégradent au point de devenir illisibles, quelle connaissance garderons-nous de notre histoire ?
Mars dernier... Asus, le plus important fabricant de Cartes mères au monde, présentait sur son stand au CeBIT le prototype le plus étonnant de ces dernières années, s'assurant ainsi les gros titres de la presse informatique mondiale. Visiblement très inspiré par les idées de ses concurrents, et notamment celle de Gigabyte qui avait présenté fin décembre 2004 sa 3D1, une carte graphique munie de deux GPU - en l'occurence des GeForce 6600 GT -, Asus exposait un monstre, une bête, un pachyderme graphique : une carte munie de deux GeForce 6800 Ultra. A l'état de simple prototype, d'ailleurs non fonctionnel à l'époque, cette carte avait été qualifiée par tous de démonstration technologique...
Il y a quelques années, le nippon Yamaha introduisait ce qui restera dans l'histoire comme le dernier graveur de la marque, en l'occurrence le CRW-F1. Celui-ci disposait de la fonction DiscT@2 (prononcez Disc Tatoo) qui permettait de graver, sur la partie non utilisée de la surface enregistrable d'un disque, du texte afin de repérer ses disques plus facilement. Hélas la technologie, bien que séduisante, n'a pas fait long feu d'autant qu'elle utilisait une partie de l'espace de stockage du disque.
Faute de mieux et en attendant l'arrivée imminente de vraies nouvelles puces graphiques, les deux protagonistes du monde de la 3D se livrent à un petit jeu dangereux, celui d'augmenter la quantité mémoire au détriment du bon sens. C'est ATI qui a le premier ouvert le bal en révélant fin février une Radeon X850 XT PE munie de 512 Mo de mémoire GDDR3. NVIDIA s'était cru obligé de répondre et l'on avait vu apparaître quelques semaines plus tard, à l'occasion du CeBIT, les premières GeForce 6800 Ultra embarquant 512 Mo de mémoire vidéo. Depuis c'était le silence radio ou presque jusqu'à ce qu'ATI souffle sur les braises en annonçant ses Radeon X800 XL avec 512 Mo de mémoire vidéo. L'arrivée de ces cartes a réveillé les ardeurs marketing de certains et nous avons eu droit à une vague d'annonces on ne peut plus farfelues avec des Radeon X700 munis de 512 Mo de mémoire ou des GeForce 6200 équipés de 512 Mo de mémoire...
Wind Of Change... Pour nous changer de l'habituelle litanie des tests de Processeurs, Cartes Graphiques et autres Cartes mères, nous nous sommes récemment fixé un objectif insensé ; celui de suivre la vie d'un processeur de sa fabrication à sa commercialisation. Pour parvenir à nos fins le géant américain Intel a bien voulu nous ouvrir les portes d'une de ses usines européennes, la Fab 24 située en Irlande, non loin de Dublin. Pour cette expédition pas comme les autres rendez-vous était pris à l'aéroport international de Roissy Charles De Gaulle, et plus précisément au terminal trois. Car avant de nous faire visiter l'une des usines les plus modernes d'Europe, Intel voulait nous dépayser quelque peu, direction une destination tenue secrète jusqu'au dernier moment. Nous avions bien reçu en guise d'indice une bouteille de verre remplie de sable et contenant un parchemin sibyllin, mais quelle ne fut pas notre surprise d'atterrir en plein désert marocain, dans les dunes de Merzouga pour un bivouac improvisé. À première vue il n'y a pas grand processeur qui pousse dans le désert, et pourtant cela serait oublier bien vite la matière première d'un processeur : le sable. C'est donc de ce sable et plus précisément de sa matière, le silicium, que tout a commencé il y a maintenant une quarantaine d'années, époque à laquelle Gordon Moore, fondateur d'Intel, énonçait sa fameuse prédiction qui est devenue depuis la « loi de Moore » et selon laquelle le nombre de transistors au sein d'un processeur double tous les dix-huit mois.
Lancé à la rentrée dernière le GeForce 6600 GT a fait, et continue de faire, les beaux jours de NVIDIA qui a trouvé dans cette puce graphique un excellent compromis entre performances et prix public. Ce n'est d'ailleurs pas un hasard si la firme au caméléon levait officiellement le voile sur cette puce à l'occasion du dernier QuakeCon en l'affublant du titre de puce graphique recommandée pour Doom 3. Au-delà du marketing, les qualités du GeForce 6600 GT sont bien réelles et après l'avoir proposée au seul format PCI-Express, NVIDIA a décliné sa puce à succès en version AGP dès le mois de décembre dernier.
Deux fois par an, Intel organise sa grand messe baptisée IDF pour Intel Developer Forum. Il s'agit pour le fondeur de présenter en avant première ses nouvelles technologies à la presse, mais aussi, et bien sûr, à ses partenaires et néanmoins clients. Se déroulant à San-Francisco, cette édition printanière de l'IDF fut comme de coutume ponctuée de KeyNotes, sortes de conférences géantes où se pressent plus de cinq mille personnes pour écouter la « bonne parole » délivrée par des intervenants de marque.
Régis Novi est le directeur général d'une nouvelle société de MailInBlack, spécialisée dans la lutte contre le spam ou pourriel (publicité électronique abusive et non sollicitée). MailInBlack propose une solution AntiSpam du même nom au concept original. Nous avons profité de notre rencontre avec Régis pour lui poser quelques questions à propos de sa solution antispam et au sujet de la pollution numérique qui a tendance à se généraliser sur Internet.
Richard Brown, vice-président marketing de l'ensemble du groupe VIA était de passage dans la capitale il y a de cela quelques jours. L'occasion pour lui de faire un bilan de l'année 2004 et de nous en dire un peu plus sur la stratégie de son groupe pour les mois à venir. L'intéressé a bien sûr répondu à nos questions et partagé son opinion quant à l'évolution de l'industrie.
Il y a quelques semaines, Creative lançait sur le marché une nouvelle gamme d'enceintes peu encombrantes introduisant du même coup une nouvelle technologie destinée à conserver une bonne qualité de son. Alors que nous avons déjà parlé de cette gamme au cours du test de l'I-Trigue 3600, nous revenons aujourd'hui dessus afin de réaliser un petit comparatif de trois ensembles 5.1 issus des plus grands noms du son PC : Creative donc, mais aussi Altec Lansing et Logitech.
Le développement du DVD, des cartes son surround et des consoles nouvelle génération ont permis aux ensembles multi-canaux de prendre une place de plus en plus prépondérante sur le marché. Le surcoût engendré par les enceintes supplémentaires n'est plus aussi rédhibitoire que par le passé et il devient de plus en plus délicat pour les constructeurs d'écouler les « petits » kits. En réalité et en l'absence de caisson de basses, les 2.0 ne sont pas trop touchés par cette nouvelle mode, ils conservent l'indiscutable avantage de la taille qui fait d'eux les parfaits compagnons des petits espaces de travail.
NVIDIA n'en finit plus d'introduire de nouvelles technologies et alors que la firme de Santa-Clara vient tout juste de lancer son nouveau chipset nForce 4 pour Processeurs AMD, voici venir la déclinaison SLI tant convoitée par les joueurs les plus acharnés. Comme à la glorieuse époque de la 3dfx 2, le principe du SLI est de combiner la puissance graphique de deux cartes en vue de délivrer des performances toujours plus élevées. Pour y parvenir, NVIDIA a développé le nForce 4 SLI, une version spéciale de son chipset pour processeurs Athlon 64 qui, contrairement à la grande majorité des chipsets actuels, sait gérer deux ports graphiques PCI-Express, corollaire indispensable à la mise en place d'un système SLI. Après avoir fait monter la sauce tout l'été autour du SLI, NVIDIA se décide finalement à le lancer en cette fin d'année, histoire sûrement de donner des idées au Père Noël.
Mars 2004, Hannovre en Allemagne, dans un hall du Messe à l'occasion du CeBIT, des dizaines de personnes s'agitent autour d'un stand : celui de iRiver. Le Coréen y présente ses nouveautés. Pas moins de 13 produits sont ainsi exposés derrière des vitrines pour que les visiteurs puissent les admirer. De notre côté, nous avions eu la chance de les avoir en mains pendant quelques minutes, nous espérions alors pouvoir tester rapidement ces baladeurs. Pourquoi tant d'enthousiasme et d'impatience me direz-vous ? Tout simplement parce qu'iRiver à véritablement bousculé le monde du baladeur MP3 l'année dernière, notamment grâce à son iHP-100, avec lequel la firme coréenne a réussi à obtenir les meilleures notes du moment dans la presse (y compris sur Clubic) en devançant le fameux et incontournable iPod d'Apple.
Attendus depuis de longues semaines, les premiers graveurs de DVD double couche sont enfin là. L'arrivée de la technologie double-couche signifie pour l'utilisateur plus d'espace de stockage, la capacité des médias étant pratiquement multipliée par deux. L'intérêt et l'engouement suscité par ce nouveau format sont bien compréhensibles, les 4,7Go des actuels DVD semblant bien étriqués lorsqu'il faut graver un film de plus de deux heures. Sony figure parmi les tout premiers constructeurs à avoir annoncé son graveur double couche, le DRU700, à l'occasion de l'édition 2004 du CeBIT. Il a été rejoint quelque temps après par le taiwanais LiteOn qui comme pour donner la réplique à Sony a lancé son SOHW-832S, un autre graveur double couche aux caractéristiques techniques similaires. Tellement similaire d'ailleurs qu'il paraît bien difficile de distinguer le Sony du LiteOn comme nous le verrons plus loin.
Il y a un an, Pinnacle renouvelait son offre en matière de tuners TV externes avec l'introduction de la PCTV Deluxe. Quelques mois plus tard et à l'aube de l'Euro 2004, événement majeur pour tous les acteurs de l'industrie télévisuelle, Pinnacle fait souffler un vent de fraîcheur dans ses solutions TV en lançant un nouveau tuner externe baptisé sobrement PCTV USB2. Clairement destiné aux utilisateurs nomades, le Pinnacle PCTV USB2 est un tuner TV design, dévoilé à l'occasion du dernier CeBIT et exploitant, comme son nom l'indique, l'interface USB 2.0 pour des performances optimales. A première vue son positionnement face à la PCTV Deluxe est plutôt délicat puisque le périphérique semble offrir les mêmes fonctions... Toutefois il n'en est rien comme nous le verrons plus loin dans ce test.
Après une accalmie de quelques semaines, la course au CPU repart aujourd'hui de plus belle et c'est au tour d'AMD, qui profite de l'ouverture du CeBIT, pour nous présenter son nouveau fleuron haut de gamme. Lancé en septembre dernier l'Athlon 64 FX-51 nous revient en effet dans une version encore plus rapide cadencée pour l'occasion à 2.4 GHz et rebaptisée en Athlon 64 FX-53.
Si Asus fabrique depuis des temps immémoriaux des Cartes mères, le constructeur est en quête de diversification. Afin de couvrir un marché toujours plus large, Asus a investi depuis quelques années déjà un nouveau créneau qui gagne à être connu, celui de la mobilité. A tel point d'ailleurs que la mobilité à tout crin est devenu le nouveau credo du fabricant asiatique qui présentait lors du dernier CeBIT une gamme complète de téléphones GSM. Cet engouement pour les produits nomades fait que l'on trouve au catalogue du constructeur toute une gamme d'ordinateurs portables mais aussi une gamme d'assistants personnels.
Lors du dernier CeBit, le constructeur DFI a fait sensation en dévoilant une gamme de Cartes mères assez inhabituelle, la série LanParty. L'objectif avoué de cette gamme est de séduire les power users et autres gamers en proposant des cartes toutes options mais à des prix qui restent somme toute raisonnables. Comme nous l'avons vu lors de nos précédents tests, DFI a plutôt réussi son pari puisque les cartes mères LanParty sont relativement bien positionnées et offrent en général de très bonnes performances dans leurs segments respectifs.
Vous ne le savez peut être pas, mais Abit ne fabrique pas que des Cartes mères ! Et oui... Le constructeur taiwanais propose également des Cartes Graphiques et fait pour cela confiance aux chips NVIDIA. Si jusqu'à il y a quelques mois, les cartes graphiques Abit n'avaient pas beaucoup fait parler d'elles, s'était sans compter sur l'imagination fertile des ingénieurs du fabricant à qui l'on doit le fameux système de ventilation OTES. Souvenez-vous de cette GeForce 4 Ti4200 inédite munie d'un imposant radiateur en cuivre, surplombé d'un ventilateur éjectant la chaleur évacuée à l'extérieur de la carte... C'est précisément un dérivé de ce système qu'a employé NVIDIA avec sa tristement célèbre GeForce FX 5800 Ultra... Le revers de la médaille du système OTES résidait jusqu'alors dans la pollution sonore qu'il générait.
La croissante fulgurante de l'internet a fait naître dans beaucoup de foyers le besoin de partager une connexion existante entre plusieurs postes. Pour ce faire il existait jusqu'à il y a peu une seule et unique solution qui consistait à relier les ordinateurs entre eux en utilisant un bon vieux câble réseau. Le problème de cette solution est lié à une contrainte physique évidente : la nécessité de poser un câble pour relier les PC. Outre la considération esthétique au sujet des câbles arpentant les murs, beaucoup ont été rebutés par les travaux qu'il fallait entreprendre du fait de la distance séparant leurs différentes machines. L'arrivée de la technologie de réseau sans fil radio WiFi a complètement bouleversé la donne, à tel point d'ailleurs que le WiFi est actuellement en plein boom.
A la veille de l'édition 2003 du CeBIT, NVIDIA a intégralement renouvelé son offre de Processeurs graphiques en dévoilant deux nouvelles solutions DirectX 9.0 commercialisées sous les noms de GeForce FX 5200 et GeForce FX 5600. Ce faisant NVIDIA est devenu le premier constructeur à disposer d'une offre complète de puces DirectX 9.0 s'adressant à chaque segment du marché. Afin de proposer un vaste choix NVIDIA a décliné chacune de ses deux nouvelles puces en deux versions distinctes : standard et ultra. Si les GeForce FX 5200, 5200 Ultra, et GeForce FX 5600 étaient plutôt bien positionnées ce n'était pas le cas du GeForce FX 5600 Ultra qui nous avait laissé, à l'époque, relativement circonspect. En effet, le GeForce FX 5600 Ultra faisait figure de produit bâtard avec des performances trop proches du GeForce FX 5600 pour un prix nettement plus important. Pire il ne parvenait pas à égaler voire surpasser le GeForce 4 Ti4200 pourtant vendu bien moins cher... Conscient de ce phénomène la plupart des constructeurs partenaires de NVIDIA avaient d'ailleurs boudé le GeForce FX 5600 Ultra lors de son lancement.
C'est en début d'année que VIA, célèbre concepteur de chipsets, a lancé le KT400A une version révisée de son précédent chipset pour Athlon le KT400. Si son prédécesseur ne supportait pas officiellement la DDR400, contrairement à ce que son nom pouvait laisser entendre, le KT400A est certifié comme étant compatible avec la DDR400 et apporte quelques améliorations que nous verrons dans ce test. Mais est-ce suffisant pour contrer le talentueux nForce 2 de NVIDIA ?
Souvenez-vous... il y a quelques semaines - peu avant le CeBIT - ATI annonçait en fanfare, et de manière officielle, son nouveau VPU haut de gamme, le Radeon 9800 Pro. Celui-ci avait d'ailleurs fait l'objet d'un test exclusif sur Clubic. Avec ce nouveau processeur, ATI entend clairement réaffirmer sa suprématie et son leadership sur le marché particulièrement concurrentiel des puces 3D, son concurrent NVIDIA n'ayant qu'à bien se tenir !