Google souhaite faire évoluer le protocole TCP

Guillaume Belfiore
Lead Software Chronicler
25 janvier 2012 à 12h03
0
00AA000001967508-photo-http-logo.jpg
Le web tel que nous le connaissons pourrait être encore plus rapide et Google relance l'idée de revoir l'architecture du protocole TCP.

En juin 2009, des ingénieurs de Google expliquaient que beaucoup des protocoles de l'Internet ont été développés à une époque où la connexion bas-débit prédominait. Ces derniers ne sont donc pas optimisés pour les lignes ADSL d'aujourd'hui. La société souhaitait ainsi former un groupe de travail planchant sur les protocoles HTTP et TCP/IP.

En novembre 2009, Google présentait ainsi SPDY, un protocole de transfert sur Internet qui serait deux fois plus rapide que le traditionnel HTTP. Contrairement au protocole HTTP qui envoie chacune des requêtes pour l'ensemble des éléments de la page (feuille de style, images, JavaScript) SPDY les compresse toutes en amont. Il en résulterait un gain de temps moyen de 55%.

L'ingénieur Yuchung Cheng s'intéresse cette fois au TCP. A l'heure actuelle, afin de contourner les limitations du protocole TCP, le navigateur web ouvre plusieurs connexions parallèles ; un mécanisme qui résulterait cependant en plusieurs temps de latence. Lorsqu'une nouvelle connexion est effectuée, la machine procède à l'envoi de trois paquets pour vérifier cette dernière et garantir la communication avec serveur. Google propose d'augmenter ce nombre de paquets à 10 afin d'envoyer immédiatement une requête HTTP complète, laquelle pourra être exécutée sans devoir attendre un retour de confirmation de la part du serveur.

Au sein du mécanisme permettant de contrôler la congestion du réseau, par défaut, le port TCP attend 3 secondes la confirmation du serveur. Si aucun retour n'est effectué, les données transmises sont considérées comme perdues et une requête est à nouveau envoyée pour récupérer celles-ci. Google explique que ce temps d'attente était justifié à l'époque de l'Internet bas-débit et souhaite diminuer celui-ci à 1 seconde.

M. Cheng propose également l'adoption de l'algorithme Proportional Rate Reduction (PPR). Actuellement, en cas de réseau saturé et de perte de données lors d'une transmission, celles-ci sont retransmises plus lentement pour permettre de récupérer les pertes. PPR permet pour sa part d'ajuster automatiquement la vitesse de cette nouvelle transmission en fonction de la perte des données. L'algorithme est déjà embarqué au sein du kernel de Linux et est en passe d'être standardisé par l'IETF.

Reste à savoir si ces propositions permettront de mettre à niveau le protocole TCP pour répondre aux besoins d'aujourd'hui. Davantage d'informations sont diponibles sur cette page.

Guillaume Belfiore

Lead Software Chronicler

Lead Software Chronicler

Je suis rédacteur en chef adjoint de Clubic, et plus précisément, je suis responsable du développement éditorial sur la partie Logiciels et Services Web.

Lire d'autres articles

Je suis rédacteur en chef adjoint de Clubic, et plus précisément, je suis responsable du développement éditorial sur la partie Logiciels et Services Web.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires

Haut de page

Sur le même sujet