Rétrospective 2000-2010 : 10 ans de high tech

iPod, Smartphone, GPS, haut débit, Facebook, blogs... Il y a 10 ans, tous ces termes étaient inconnus ou réservés à quelques passionnés. Alors que nous venons d'entrer dans les années 2010, nous vous proposons un retour en arrière sur les années 2000 et sur quelques évolutions majeures dans le domaine du high-tech

02715772-photo-2009-2010.jpg
Souvenez vous, c'était il y a 10 ans : le bug de l'an 2000 ne provoqua pas la panique redoutée, on utilisait encore majoritairement des écrans CRT, on était encore nombreux à surfer en 56k, les baladeurs MP3 étaient réservés à quelques passionnés et le terme de « liste d'amis » n'évoquait pas encore des nombres à 4 chiffres. Si les 10 dernières années n'ont pas vu apparaître de voitures volantes, elles ont été indéniablement celles de la démocratisation du high-tech, de son élargissement à un cercle dépassant largement celui des passionnés. Revenons à l'année 2010 : le fait de se connecter au Net dans la rue, sur un écran de téléphone portable nous apparaît tout à fait normal.

Cette impression d'être presque blasé n'a rien d'étonnant : sans recul, on accepte les évolutions technologiques comme une suite logique. On ne se pose pas la question de savoir comment on faisait avant. On le fait, comme on a intégré Internet dans nos vies quotidiennes. Néanmoins, alors qu'une nouvelle décennie commence (même si ça n'est pas le cas du strict point de vue du calendrier, la date est symbolique), nous voici avec une dernière opportunité de regarder en arrière : qu'est-ce qui a changé en 10 ans dans les domaines du high-tech et de l'informatique ? Les baladeurs MP3 ont rendu les CD obsolètes, Apple est redevenu un acteur central, Microsoft a connu quelques déboires, mais domine toujours le monde de l'informatique, les GPS se sont démocratisés, les téléphones portables sont devenus « smart »... autant d'évolutions que nous allons retracer en nous concentrant sur quatre domaines : les usages d'internet, le multimédia, les logiciels et la mobilité.

Sommaire :

Les usages d'Internet : démocratisation du haut débit

000000C802651688-photo-freebox-5-et-freebox-hd.jpg
Apparu à la fin des années 90, le haut débit s'est réellement démocratisé dans les années 2000 avec l'apparition des premières offres ADSL attractives. En France, c'est notamment Free qui a su tirer les prix vers le bas et proposer, en 2002, la première Freebox et une offre imbattable : internet haut débit, téléphonie illimitée et télévision numérique pour 29,99 euros par mois. D'autres opérateurs comme Neuf Telecom (aujourd'hui SFR), Club Internet (aujourd'hui... SFR) ou Alice (aujourd'hui Free) leur ont emboité le pas, tandis que France Telecom, se défendait avec une offre plus onéreuse, mais bénéficiant évidemment de l'avance considérable de l'opérateur historique au niveau du grand public : image de marque rassurante, boutiques physiques...

Le haut débit a modifié fondamentalement la façon dont nous utilisons Internet. Cela paraît préhistorique, mais en 1999, nous étions encore nombreux à nous connecter en 56k, et surtout, à nous déconnecter, réflexe que nous avons oublié depuis. Internet est devenu, au même titre que l'eau ou l'électricité, un flux permanent, permettant de nouveaux usages tels que la conversation audio et vidéo via des logiciels comme Skype ou Windows Live Messenger. Permettant, également, de télécharger et de visionner toujours plus vite des contenus de plus en plus riches tels que la musique ou les vidéos. Ce développement rapide n'a pas été du goût des majors et des studios : surpris par cette révolution technologique, ils n'ont pas su anticiper une situation où, tout à coup, il devenait facile de télécharger n'importe quel film, série ou album. L'offre légale s'est développée depuis, mais elle traine encore la patte dans plusieurs domaines comme le cinéma où la quantité de films disponibles frise le ridicule. La solution ? La loi HADOPI : une paire de ciseaux pour couper Internet aux méchants contrevenants. Pas sûr que ce soit la bonne...

Blogs et réseaux sociaux

0000009602447862-photo-twitter-facebook-mikeklo.jpg
Bénéficier d'une connexion permanente à Internet a également changé notre usage du réseau et notamment la présence en ligne. Avant, on créait une page personnelle pour exister, pour planter un drapeau virtuel : dire qui on est, ce que l'on aime, montrer quelques photos. A partir du moment où le web devient un flux continu, d'autres besoins apparaissent : celui d'informer, de mettre à jour. Apparus à la fin des années 90, les blogs (contraction de « weblog » ) permettent de tenir un journal de bord, mis à jour régulièrement et, surtout, ne nécessitant pas de connaissance technologique particulière pour l'administrer. Jugés parfois futiles, les blogs ont néanmoins été une révolution de l'information au cours de ces dernières années, permettant de sortir du cadre des médias « traditionnels ».

Si les blogs permettent d'informer régulièrement sur ce que l'on pense, un autre besoin est apparu au cours des années 2000 : celui d'informer ses proches sur ce que l'on fait ! Autre évolution de la « page perso » des années 90, les réseaux sociaux comme MySpace ou Facebook se sont rapidement développés dans la deuxième moitié de la décennie. Le but est toujours le même : exister sur la toile, mais cette fois-ci, on ajoute des amis selon ses centres d'intérêt, on met à jour son statut, on publie régulièrement des photos, on rejoint des groupes d'intérêt communs. Entre les deux, Twitter a popularisé la notion de « microblogging », où le but est d'informer, là encore, mais en 140 caractères maximum.

10 ans de Google

0000009602481448-photo-google-wants-you.jpg
Au lancement du moteur de recherche Google en 1998, il aurait été impossible de prévoir que 12 ans plus tard, Google serait l'éditeur d'une batterie de services web, d'un système d'exploitation pour Smartphones, d'un logiciel de gestion de photos, d'un navigateur web, et d'un système d'exploitation pour netbooks, basé sur ce navigateur web et ses services en ligne. Bref, de simple moteur de recherche, qui révolutionnait déjà le genre, Google est devenu un géant incontournable du web. La firme de Mountain View a créé, au cours des années 2000, quantité de services, développés en interne ou rachetés à d'autres éditeurs. En vrac, on citera Google Maps, le service de cartographie mondiale, le webmail Gmail qui a redéfini le genre, les applications bureautiques en ligne Google Documents et Google Agenda, ou encore le service de traduction Google Translate. Google se lance également dans l'édition d'applications « desktop », toujours avec un lien vers ses services web, et là encore souvent via des acquisitions d'autres sociétés. C'est ainsi que voient le jour Google Desktop, un moteur de recherche local, Google Earth et sa représentation 3D ébouriffante des cartes de Google Maps, ou encore le gestionnaire de photos Picasa.

0190000001588010-photo-interface-gmail.jpg
L'interface de Gmail, le webmail de Google


0000006401798428-photo-google-chrome-logo.jpg
C'est néanmoins à la fin de la décennie que Google dévoile ce qui pourrait être ses deux atouts majeurs pour les années à venir : Google Chrome et Android. Le premier est un navigateur web de plus, certes, mais pas n'importe quel navigateur : en un an, Google Chrome a su corriger l'essentiel de ses défauts (on approche de la 4ème version majeure !), s'ouvrir aux extensions, et surtout impressionner par la simplicité de son interface et ses excellentes performances. Celles ci sont cruciales pour l'exécution des applications web et pour la réussite de Chrome OS, un système d'exploitation basé sur le navigateur web et sur les applications en ligne de Google (Gmail, Documents, Agenda...), le pari risqué d'un système pour netbooks basé sur le « cloud » (infrastructure distante). Parallèlement, Google est venu taquiner l'iPhone d'Apple avec Android, un système d'exploitation mobile libre, déjà adopté par plusieurs constructeurs et faisant là encore preuve d'une certaine maturité en l'espace d'un an. Les années 2010 verront-elles Google devenir incontournable sur les Smartphones et autres netbooks ?

0190000002702308-photo-nexus-one.jpg


Vidéo et musique à la demande

0000007802038366-photo-youtube-mikeklo-logo.jpg
Les années 2000 auront, enfin, été celles du développement de la vidéo personnelle, via des services communautaires comme YouTube ou Dailymotion. Là encore, le succès de la formule dépend de sa simplicité : on publie une vidéo en quelques clics et celle-ci est automatiquement encodée et visible par les internautes. Armé d'une webcam, d'un caméscope ou d'un logiciel de montage, on peut s'improviser créateur de contenus. Du côté des spectateurs, on devient consommateur de médias à la demande. Problème, ces plates formes sont là encore un casse-tête pour les chaines de télévision, les studios ou les maisons de disques : y circulent de nombreuses émissions, clips vidéos, voire même films diffusés sans autorisation. Il semblerait qu'à la fin de la décennie, ces ayants droit ont fini par saisir l'intérêt de ce nouveau mode de consommation. C'est ainsi que des services gratuits et financés par la publicité, tels que Hulu aux États-Unis, ont vu le jour. Sous nos latitudes, on est un peu plus frileux, mais on aura quand même assisté à l'essor de la « catch up TV », permettant de revoir des émissions et des séries après leur diffusion.

Du côté de la musique, le streaming a également fait son chemin. On se rappelle d'une citation de David Bowie, prédisant que la musique deviendrait un flux « comme l'eau ou l'électricité ». On s'en approche avec des services comme Deezer ou Spotify qui modifient notre façon de consommer de la musique. L'utilisateur ne possède plus une copie physique, il écoute à distance n'importe quel titre sur son ordinateur, voire même sur son téléphone portable. Un des arguments principaux des adeptes du téléchargement illégal était la possibilité d'écouter avant d'acheter. Et si les années 2010 étaient celles où on ne fait plus qu'écouter ?

0190000002371624-photo-spotify-mac-mikeklo.jpg

Multimédia : les baladeurs audio/vidéo

Voilà encore une innovation qui date plutôt des années 90, si on voulait être exact. Néanmoins, c'est bien dans les années 2000 que les baladeurs audio, puis vidéo, ont connu leur essor, et transformé complètement le marché de la musique. En tête, on trouve évidemment l'iPod d'Apple. Dévoilé en 2001, et uniquement compatible Mac à l'origine, le baladeur a séduit par son design épuré, beaucoup plus fin (pour l'époque) que la plupart des produits concurrents, et par sa simplicité d'utilisation. Depuis, l'iPod s'est décliné en de nombreuses versions aux tailles, aux capacités et aux fonctionnalités différentes, pour en arriver aujourd'hui à l'iPod Touch, dérivé de l'iPhone et capable d'exécuter des jeux et des applications, de surfer sur le web et de lire des vidéos. Au passage, Apple aura proposé son iTunes Music Store, une boutique de téléchargement de musique à l'unité, bientôt ouverte aux films, aux séries, aux jeux et aux applications. On est loin de la promesse simple de « 1000 chansons dans la poche » qui était le slogan d'origine de l'iPod.

0000009600035135-photo-lecteur-mp3-apple-ipod-15-go.jpg
0000009600136981-photo-baladeur-mp3-multim-dia-apple-ipod-photo-20go.jpg
0000009602404338-photo-ipod-touch-avec-t-l-commande-et-micro.jpg

L'iPod a évolué depuis son lancement en 2001


Il serait néanmoins criminel de limiter la révolution des baladeurs audio et vidéo aux seuls iPod. De nombreux constructeurs se sont distingués en intégrant, souvent avant Apple, des possibilités innovantes. C'est le cas du constructeur français Archos, le premier à avoir cru aux baladeurs vidéo, près de 3 ans avant Apple (et alors que ce dernier en rejetait même l'idée). Des constructeurs comme Cowon, Creative, iRiver, ou les géants de l'électronique que sont Sony ou Samsung continuent à séduire les amateurs les plus pointus avec davantage de fonctionnalités et des formats supportés plus nombreux. Concurrencés depuis par les téléphones portables, qui incluent presque tous des fonctionnalités de lecture audio, voire même vidéo, les baladeurs sont toujours bien présents dans les poches des technophiles en 2010.

0000009600059575-photo-archos-vid-o-av320.jpg
0000009600209660-photo-creative-zen-vision-m.jpg
0000009600133745-photo-iriver-h320-logo.jpg

Archos, Creative, iRiver : quelques baladeurs emblématiques


Du DVD au Blu-ray

0000006402534052-photo-logo-blu-ray-disc.jpg
Les années 90 avaient vu l'arrivée du DVD. L'an 2000 s'est ouvert sur la démocratisation de celui-ci, aidée par la sortie de la Playstation 2 de Sony. Les prix des lecteurs ont fondu, comme ceux des films, et le format est toujours bien vivant en 2010, malgré une résolution aujourd'hui inadaptée aux téléviseurs HD. Il faut dire que son successeur a pris un certain retard. La cause : une guerre entre deux formats. Poussés respectivement par Toshiba et Sony, le HD-DVD et le Blu-ray ont cohabité pendant quelques temps, créant une vraie confusion chez l'acheteur. Quel format choisir alors que certains studios soutenaient le HD-DVD, et d'autres le Blu-ray ? Début 2008, le HD-DVD rend l'âme, mais le Blu-Ray demeure un format couteux, et son prédécesseur continue à lui faire de l'ombre. Il est vrai que contrairement au passage de la VHS au DVD, qui révolutionnait complètement la façon de voir des films dans son salon (image sans comparaison, interactivité, gain de place...), le Blu-ray n'apporte par rapport au DVD qu'une qualité d'image et de son supérieure et une plus grande capacité de stockage. Pour couronner le tout, les platines DVD capables d'améliorer la lecture des films sur des téléviseurs HD ont freiné les utilisateurs : pourquoi racheter en Blu-ray des films qui passent plutôt bien au format DVD, une fois « upscalés » ?

A la fin de la décennie, les prix ont fini par plonger et il semblerait que le Blu-ray décolle enfin. Les catalogues s'étoffent et si la location et la diffusion en streaming sont sans doute une autre piste d'avenir pour la consommation de films, les offres de VOD en haute définition sont encore rachitiques. L'atout majeur du Blu-ray pourrait également être la 3D, les premiers Blu-ray 3D étant prévus pour 2010. Succès massif en salles, le film Avatar de James Cameron, qui exploite la 3D comme jamais auparavant, pourrait bien devenir la « killer app » du Blu-ray à sa sortie. Cela n'empêche pas certains de prévoir la mort du support à terme... Qui vivra verra.

Ecrans plats : du LCD à la HD

0000009602685082-photo-moniteur-lcd-iiyama-prolite-e2710hdsd-b1.jpg
En 2002, Apple sort un nouvel iMac doté d'un écran LCD 15 pouces. Steve Jobs, jamais avare en slogans choc, proclame la mort de l'écran cathodique (pour sortir, quelques mois plus tard, un eMac équipé d'un écran... CRT). L'affirmation n'était pas tout à fait vaine malgré tout : en quelques années, les écrans LCD ont remplacé leurs volumineux prédécesseurs. Cette transformation ne s'est pas effectuée en un seul jour : les premiers écrans LCD rebutaient notamment les joueurs, en raison de leur temps de réponse trop élevé, et les graphistes, leur reprochant des angles de vision réduits se traduisant par une image peu fiable. Au fil des ans, les écrans ont su corriger ces défauts, alors que leurs qualités avaient déjà séduit de nombreux utilisateurs : encombrement réduit sur le bureau, confort visuel accru par l'absence de balayage, polices plus agréables à lire...

Poussés par l'informatique, les écrans plats se sont ensuite généralisés dans le domaine des téléviseurs, avec l'adoption progressive de la HD au niveau de la télévision (toutes les grandes chaines nationales émettent aujourd'hui en haute définition) et des films avec l'arrivée des Blu-ray et de la vidéo à la demande, même si l'offre HD de cette dernière reste assez réduite en France.

Logiciels et systèmes : la résurrection du Mac

0000009600060761-photo-mac-os-x-bo-te.jpg
Après des années d'errements et de projets ratés, Apple sortait enfin, en 2001, un nouveau système d'exploitation : Mac OS X. Handicapée par un Mac OS « classique » vieillissant, la firme de Cupertino s'était finalement résolue à racheter un système existant et son choix s'était porté, en 1997, sur la société Next de Steve Jobs, évincé d'Apple au milieu des années 80. Le pari de créer un nouveau système sur la base de NextStep était risqué : Mac OS X devenait ainsi un système d'exploitation complètement différent de son prédécesseur. Basé sur Unix, il introduisait de nouvelles API, une gestion radicalement différente de la mémoire et une interface très en avance sur son temps, voire beaucoup trop. Conséquence : les premières versions de Mac OS X étaient très gourmandes, y compris sur les machines les plus évoluées d'Apple, et les critiques des aficionados d'Apple, habitués à Mac OS 9, très vives.

000000C800208483-photo-apple-macos-x.jpg
000000C800656964-photo-mac-os-x-10-5-leopard-bureau.jpg

Au fil des versions, Mac OS X a su évoluer


Pourtant, Apple a réussi à tenir bon et améliorer son système de version en version, tout en imposant une image résolument novatrice et soignée dans les moindres détails, à défaut de conquérir des parts de marché. Pendant ces 10 dernières années, Mac OS X a souvent servi de modèle. Il est encore aujourd'hui le système auquel il faut ressembler, et le qualificatif « Mac like » est souvent employé pour signifier une interface particulièrement intuitive et léchée. Mac OS X, c'est aussi et surtout le système qui aura permis à Apple de réussir sa transition vers les processeurs Intel après des années de soutien au PowerPC : pendant des années, la firme de Cupertino réalisait dans un secret plus ou moins gardé une version de Mac OS X pour processeurs x86. En 2005, en se fendant d'un laconique « It's true », Steve Jobs annonçait la fin du PowerPC, définitivement enterré en août 2009 avec la sortie de Mac OS X Snow Leopard, première version du système à tourner exclusivement sur processeur Intel. Aujourd'hui, le Mac reste largement minoritaire, mais bénéficie d'un engouement certain, auquel Mac OS X n'est certainement pas étranger. Le noyau du système a également servi de base à l'OS embarqué par l'iPhone et l'iPod Touch, et devrait logiquement équiper la future tablette iSlate qui verrait le jour ces prochaines semaines.

Windows : une décennie en dents de scie

0000006402304802-photo-windows-7-iso-verifier-logo-mikeklo.jpg
Dominant outrageusement le marché dans les années 90 grâce aux coups de maître Windows 95 et Windows 98, Microsoft commençait les années 2000 de manière assez mitigée. D'un côté un système professionnel d'excellente qualité, Windows 2000, et de l'autre Windows Me, une version un peu batarde, « plantogène » et pas franchement révolutionnaire de Windows 9x. En 2001, la firme de Redmond unifie enfin ses deux branches et sort Windows XP, basé sur Windows 2000, pour le grand public comme pour les professionnels. Salué pour sa stabilité accrue et ses améliorations ergonomiques, Windows XP sera un grand succès, à peine entamé par ses problèmes de sécurité, corrigés par des Services Pack successifs. Et c'est bien là le problème de Windows XP : fièrement installé, il inaugurera une période de stagnation pour Microsoft qui s'en contentera trop longtemps, retardant maintes fois son successeur. Et quand celui-ci arrive finalement à la fin de l'année 2006, la déception est grande.

000000C802568844-photo-historique-os-windows-me-3.jpg
000000C802342132-photo-windows-7-barre-des-t-ches.jpg

De Windows Me à Windows 7, la décennie se finit plutôt bien pour Microsoft


Trop ambitieux pour la plupart des machines de l'époque, trop en avance par rapport à un écosystème visiblement pas prêt, Windows Vista, malgré sa belle interface Aero toute en transparence, est affublé d'une image désastreuse d'un système lent et incompatible, ce qui s'avère problématique pour son adoption en entreprise. Là encore, un Service Pack 1 providentiel améliore nettement les choses, et les constructeurs finissent par se mettre à la page, mais le mal est fait. Heureusement, la décennie se termine sur une note positive : pressé de passer sur l'épisode Vista, Microsoft a livré un Windows 7 performant, très stable, et plus agréable à utiliser. Comme quoi, quand on veut...

Linux, logiciel libre : un pas vers le grand public

0000006400092171-photo-linux-tux-logo-officiel.jpg
Les logiciels libres ont vu leur public s'élargir considérablement entre 2000 et 2009. Même si au final, Linux reste un système minoritaire (en dehors des serveurs) à l'heure actuelle, on ne peut pas nier un effort d'ouverture caractérisé par des distributions Linux de plus en plus accessibles. Mandriva et Ubuntu ont notamment contribué à rendre Linux utilisable par le grand public : installation graphique, effort réalisé sur les outils de configuration, installation simplifiée des pilotes, dépôts facilement accessibles pour ajouter des applications... Ces efforts n'ont pas propulsé la part de marché de Linux pour autant, mais on est aujourd'hui assez loin du vieux cliché qui veut que le système libre est réservé aux aficionados de la ligne de commande et de la recompilation du noyau (même s'il est toujours nécessaire, parfois, de repasser par ces étapes).

000000C800431006-photo-mandriva-flash.jpg
000000C802651490-photo-ubuntu.jpg

Mandriva et Ubuntu : deux distributions qui ont su simplifier Linux


0000009602595364-photo-logo-firefox.jpg
D'autres projets comme le logiciel de retouche Gimp ou la suite bureautique libre OpenOffice.org, ont connu un joli succès, notamment grâce à leur disponibilité sur les principales plates-formes : Linux, mais également Windows et Mac OS X. Néanmoins, la plus grande réussite du logiciel libre est incontestablement Mozilla Firefox. Egalement multi plates-formes, le navigateur de la fondation Mozilla a réussi à inverser une tendance développée à la fin des années 90 et qui semblait irréversible : le quasi-monopole d'Internet Explorer sur les navigateurs web. Ironiquement, ce renversement de situation est indirectement dû au concurrent moribond de Microsoft, Netscape, qui décida en 1998 de faire de son Netscape Navigator 6 un logiciel au code source ouvert, créant au passage la fameuse fondation Mozilla. Depuis Netscape, racheté par AOL, a fini par rendre l'âme, mais la fondation Mozilla a réussi à secouer le cocotier en proposant en 2004 Firefox, un navigateur fonctionnel, personnalisable et proposant un niveau de sécurité supérieur à celui d'Internet Explorer 6, sujet à de nombreuses vulnérabilités à l'époque. Firefox a alors sérieusement entamé la part de marché d'Internet Explorer, atteignant 50% dans certains pays. Le navigateur est aujourd'hui en version 3.5, et bénéficie notamment d'un imposant catalogue d'extensions, permettant de lui ajouter de multiples fonctionnalités. Pour autant, l'avenir de Firefox n'est pas complètement rose : un certain Google Chrome commence à faire preuve d'une certaine agressivité...

0190000002276662-photo-firefox-3-5-windows.jpg

Mobilité : l'ère des Smartphones

0000006400148058-photo-organiseur-de-poche-pda-palm-zire-22.jpg
Les années 2000 auront été charnières au niveau de la mobilité, dans la mesure où elles ont connu à la fois le déclin du PDA, et son remplacement progressif par un appareil autrement plus communiquant. Apparu dans les années 90, il se sera mis à la couleur et accueillera un nouvel acteur : Microsoft et son Pocket PC, venu concurrencer Palm. Très vite, cependant, le PDA est concurrencé, puis supplanté par un autre appareil, amené à le remplacer inéluctablement : le Smartphone, croisement entre un PDA et un téléphone portable. Un téléphone capable de gérer des contacts, des calendriers, d'envoyer des mails, de surfer sur le web et, surtout, d'installer des applications tierces. Durant ses premières années d'existence, plusieurs systèmes se partagent le marché des smartphones : Windows Mobile, Symbian, poussé entre autres par Nokia, et Blackberry du constructeur RIM, notamment réputé pour sa gestion du mail en « push ».

000000C801582420-photo-rim-blackberry-900-bold.jpg
000000C800226513-photo-smartphone-qtek-s200.jpg


0000009602304272-photo-t-l-phones-mobiles-apple-iphone-3g-s-16go-noir.jpg
Le marché des Smartphones va cependant être secoué par deux événements majeurs. Le premier est évidemment l'arrivée d'Apple avec l'iPhone. Basé sur les fondations de Mac OS X et bénéficiant d'une interface tactile multipoints révolutionnaire et très soignée, l'appareil fait tourner les têtes, mais est-il vraiment aussi « smart » qu'on le dit ? Durant sa première année d'existence, il ne permet pas d'y installer (officiellement) des applications tierces. La réponse arrive l'année suivante avec l'iPhone 3G et l'arrivée de l'App Store, un magasin d'application et de jeux, à télécharger et installer depuis son PC ou Mac, mais aussi directement sur le téléphone. Le succès de l'iPhone va entrainer l'arrivée de multiples « iPhone killers ». Certains, comme le retour pas très réussi de Palm et de son Pré, ne connaîtront pas le succès escompté malgré quelques qualités.

L'autre concurrent, plus direct celui-là, est bien entendu le système Android développé par Google. Malgré des débuts un peu mitigés, les premiers appareils Android n'étant pas franchement extraordinaires, Android a su tout de même s'accaparer les faveurs des geeks méfiants de la politique d'Apple. De nouveaux appareils nettement plus convaincants ont vu le jour depuis, comme le HTC Hero ou le Droid de Motorola (Milestone en Europe). Mais le coup décisif de Google viendra peut-être de sa décision de commercialiser son propre téléphone, le Nexus One. Bien que celui-ci soit développé par HTC, le Smartphone est commercialisé sous la marque Google, et propose des performances apparemment alléchantes alliées à une version d'Android soignée aux petits oignons, et surtout d'une puissance de feu commerciale très importante. La guerre des Smartphones n'en est probablement qu'à ses débuts.

0190000002712198-photo-le-nexus-one-au-centre-face-ses-concurrents.jpg


Informatique : du portable au netbook

000000C800034462-photo-ordinateur-portable-sony-vaio-z1sp.jpg
Si on devait dégager une tendance au niveau de l'équipement informatique pour les années 2000, ce serait sans doute la percée progressive des ordinateurs portables pour le grand public. Encore réservés à un public fortuné au début de la décennie, les portables se sont nettement démocratisés et ont surtout vu leurs caractéristiques techniques évoluer. En fait, on pourrait parler de deux phénomènes presque distincts pour évoquer l'engouement pour les ordinateurs portables. Le premier est une évolution des portables vers des machines de plus en plus mobiles, privilégiant l'autonomie, et les caractéristiques physiques (poids, épaisseur...), des portables qui complètent l'utilisation d'une machine de bureau, afin de rester connecté en déplacement. Parallèlement à cette tendance, une autre a vu le jour au cours des années 2000 : les « desktop replacements », des portables beaucoup plus volumineux, plus lourds et moins autonomes, mais presque aussi puissants que des machines de bureau, qu'elles sont amenées à remplacer. Et on peut indéniablement parler d'un succès : si les tours sont toujours évidemment prisées par des publics ciblés, à la recherche des meilleures performances (joueurs, professionnels de l'image...), les portables, dans leur ensemble, ont progressivement grignoté l'espace vital des tours dans les rayonnages des grandes surfaces.

Dernier phénomène en date dans cette montée en puissance du portable : l'apparition, en 2007, des premiers netbooks. Conçus à l'origine comme des machines extrêmement limitées (mémoire flash, interface simplifiée, écran 7 pouces...), ces petits portables commercialisés dans des fourchettes entre 300 et 500 euros ont connu un succès retentissant, malgré leurs limitations techniques. Celles-ci sont d'ailleurs de plus en plus floues, les évolutions successives les rapprochant de leurs ainés (malheureusement, également en terme de prix et de dimensions). Aidés par leur petite taille et l'autonomie, souvent très élevée, de leur batterie, ils sont parvenus à s'imposer au point de disqualifier les « vrais » portables pour un certain nombre d'utilisateurs. Vont-ils subir la concurrence des tablettes « slate », un concept visiblement à la mode en ce début 2010 ?

012C000002530738-photo-ordinateur-portable-samsung-n130-starter-blanc.jpg



GPS : la démocratisation de la navigation guidée

000000C802587692-photo-tomtom.jpg
Souvenez vous d'une époque pas si lointaine où le GPS faisait rêver, utilisé comme technologie de pointe dans un film de James Bond (Demain Ne Meurt Jamais). Les années 2000 auront été celles de la démocratisation de la navigation assistée par satellite. Les systèmes GPS ont commencé par gagner du terrain sous la forme de logiciels et d'antennes à greffer sur des PDA et des Smartphones. Les GPS autonomes, encore couteux au début des années 2000, se sont démocratisés par la suite, mais aucune solution n'a vraiment supplanté l'autre : les principaux fabricants de GPS comme TomTom ou Navigon proposent à la fois des appareils autonomes et des solutions pour smartphones (Windows Mobile, iPhone...).

Quelles évolutions avons-nous pu constater au niveau des GPS ces dernières années ? L'adoption de la synthèse vocale, pour certains modèles, a été un plus très bénéfique. Contrairement aux phrases pré-enregistrée, la synthèse vocale permet d'énoncer le nom des rues en toutes lettres, ce qui accroit la sécurité. On a pu voir se développer également des technologies telles que la TMC, proposant des informations sur le trafic et le détournement vers un autre itinéraire.

Wi-fi, Bluetooth, clé 3G : des années sans fil

0000006401862184-photo-logo-wifi.jpg
Terminons cette rétrospective high-tech de la « décennie » en évoquant la révolution du sans fil. Les dix dernières années auront ainsi vu la généralisation du Wi-fi sur les ordinateurs portables, sans doute un des facteurs qui ont permis leur percée vers le grand public : quoi de plus agréable que de pouvoir surfer depuis son canapé ? Progressivement intégré aux box ADSL des fournisseurs d'accès à Internet, le Wi-fi a permis depuis de nombreux autres usages en se déportant vers d'autres périphériques : imprimantes, stations musicales permettant de diffuser la musique dans toute la maison, consoles de jeu ou téléphones. Le Wi-fi s'est également fait public avec le développement de nombreux points d'accès, gratuits ou payants, ou grâce à la fonctionnalité offerte par certains FAI permettant de profiter des box d'autres abonnés comme point d'accès.


0000006401956416-photo-logo-bluetooth.jpg
Du côté des périphériques, on a pu voir se développer la norme Bluetooth, conçue pour les courtes distances et adoptée progressivement pour des périphériques tels que les oreillettes pour téléphone portable, les claviers ou les souris. L'apparition de la version 2.0 du standard a permis d'augmenter nettement les débits et de permettre de nouvelles utilisations, notamment en ce qui concerne les casques stéréo pour baladeurs ou smartphones. Enfin, la norme Bluetooth permet également l'usage d'un téléphone portable comme modem, une fonctionnalité couteuse (Orange commercialise son option modem pour iPhone à 29 euros par mois !) mais qui peut s'avérer utile en l'absence de clé 3G. Clé 3G ? Même si l'actualité récente n'a pas donné très bonne presse à ce périphérique, il figure également parmi les innovations technologiques qui ont permis de s'affranchir des contraintes matérielles pour disposer d'une connexion internet pour son portable, où que l'on soit... à condition de lire les clauses en petits caractères d'un abonnement qui peut s'avérer très onéreux !

Conclusion

0000006402715770-photo-boule-de-cristal.jpg
Ainsi s'achève notre rétrospective, alors que nous venons de mettre un pied dans l'année 2010. Un premier pied assez important d'ailleurs puisque qui dit début de l'année dit annonces majeures à l'intérieur ou autour du CES de Las Vegas. Entre les rumeurs de plus en plus précises concernant la future « iSlate », tablette multimédia d'Apple, et l'annonce surprenante du Nexus One, le premier smartphone Android commercialisé directement par Google, on peut dire que les années 2010 démarrent sur les chapeaux de roue. On imagine que les périphériques mobiles et tactiles y joueront un rôle qu'elles n'ont pas su jouer au cours des 10 dernières années, la faute peut être à une offre logicielle inadaptée à ce type de périphérique.

Pour autant, en parcourant les quelques innovations, non exhaustives, qui composent notre rétrospective, il nous apparaît qu'il est bien difficile de jouer les Madame Irma : qui aurait pu prévoir en 2000, ne serait-ce que la résurrection d'Apple dans le domaine de la musique numérique ou la montée en puissance de Google au-delà des frontières de la recherche sur le web ? Si on devait tirer une tendance des années 2000, on serait tenté de dire que finalement, elles ont été des années charnières, faisant passer le high-tech des passionnés vers un public beaucoup plus large, et démocratisant des appareils et des technologies dont on a presque du mal à se souvenir qu'elles étaient, il y a 10 ans, encore élitistes.

Il y aurait encore beaucoup à dire sur la décennie passée. Évoquer l'évolution exponentielle des cartes graphiques de plus en plus performantes, des processeurs passant d'une course au MHz à la multiplication des coeurs, ou encore revenir sur l'évolution des menaces informatiques vers une véritable économie souterraine. Mais puisque nous avons déjà mis un pied dans l'année 2010 et que la prochaine décennie devrait être aussi passionnante que la précédente, il est temps d'y mettre le second à présent !
Modifié le 18/09/2018 à 14h42
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
0
0

Actualités récentes

Comparatif des meilleurs PC portables pour les créatifs (2021)
Comparatif des meilleurs PC portables HP (2021)
Apex Legends : une version mobile annoncée par Electronic Arts
Comparatif des meilleurs PC portables de 13 pouces (2021)
Comparatif des meilleurs PC portables 2-en-1 (2021)
Comparatif des meilleurs PC portables Asus (2021)
PlayStation Store : Sony renonce à la fermeture de sa boutique sur PS3 et PS Vita
Incendie du datacenter OVH à Strasbourg : retour sur une catastrophe moderne
Fitbit dévoile Luxe, un bracelet connecté aux allures de bijou
Forfait mobile : derniers jours pour profiter de l'offre B&You 200 Go à moins de 15€
Haut de page