Comment les magasins en ligne affrontent-ils le rush de Noël ?

16 décembre 2014 à 12h03
0
Pendant la période des fêtes, certaines enseignes réalisent un tiers de leur chiffre affaires. Ce n'est pas le moment de perdre des commandes et des clients parce que le système d'information croule sous la charge. À ne pas négliger, non plus, le côté humain pour garantir une bonne qualité de service. Chacun y va de sa méthode.

« À la Fnac, le rush des fêtes de fin d'année se traduit par un trafic multiplié par trois entre le 1er et le 24 décembre, estime Benoit Frémaux, directeur DOSI et de la transformation digitale. Il est par la suite moins important, pour revenir à la normale début janvier, qui correspond surtout aux besoins du SAV. Pour absorber cette pointe, pas de dispositif spécifique, seulement une augmentation de la capacité des infrastructures. Le véritable problème se situe sur le plan humain, car il nous faut assurer une surveillance constante, tant des ressources informatiques que du réseau et des périphériques dans les magasins. »

Ce trafic provient de deux sources. D'une part, du Web, pour 15%, et, de l'autre, des magasins. Pour ce dernier volet, il est important de prendre en compte les flux monétiques (caisses), mais aussi le trafic engendré par les clients qui commandent sur Fnac.com et retirent leurs achats en magasin.

Les flux engendrés par les magasins ont lieu dans la journée, surtout l'après-midi et, bien sûr, le samedi. Ceux issus des internautes arrivent dans la soirée et les week-ends. D'ailleurs, ils n'aboutissent pas sur les mêmes infrastructures. La Fnac a externalisé son informatique chez deux hébergeurs. L'un d'eux est dévolu au trafic provenant du Web et l'autre accueille celui des magasins. Les deux sites sont des cloud privés dans lesquels la Fnac possède ses serveurs, ses baies de stockage et son réseau. L'enseigne en délègue l'exploitation à l'hébergeur. Un comité de pilotage mixte fixe les objectifs en matière de qualité de service (QOS), de sécurité, de reprise en cas d'incident... surtout pour la période de Noël.

L'achat de nouvelles machines plutôt que la location

Concrètement, avant la période de pointe, la Fnac estime le trafic attendu en fonction de l'année précédente et adapte les infrastructures par acquisition de machines. Celles installées sur le site Web resteront en place l'année suivante, « car le trafic est en perpétuelle augmentation », déclare Benoit Frémaux. Les machines pour le trafic « en magasin » sont installées pour la circonstance puis démontées, jusqu'au Noël suivant. Benoit Frémaux n'est pas favorable à la location de matériel, ni à la formule du débordement sur un cloud public, estimant que si toutes les enseignes font la même chose au même moment, la qualité de service risque de s'en ressentir. Côté réseau étendu (WAN), la capacité est augmentée de manière provisoire, pour absorber le surplus de trafic, celui-ci étant plus que jamais surveillé.

01C2000001750532-photo-le-logo-de-la-fnac.jpg


Côté humain, un dispositif se met en place avec une surveillance permanente pour détecter immédiatement les incidents. Notamment les problèmes de monétique dans les magasins. Ou en cas d'incident avec les imprimantes qui éditent les factures. D'ordinaire, un technicien du prestataire passe une fois par semaine. Dans la période de Noël, il intervient à la demande. À la Fnac comme chez certains grands sites en ligne, lors des fêtes de fin d'année, le côté humain pèse à tous les niveaux, y compris celui de la logistique. Il ne suffit pas de commander, encore faut-il que les clients reçoivent leurs colis. Ainsi, le site en ligne Cadeaux.com multiplie ses effectifs par plus de dix à cette période, passant de quatre personnes en temps normal à une cinquantaine au plus fort de l'activité.

Un fonctionnement en mode PCA actif/actif ou inactif ?

Chez Darty, le côté humain pèse fortement. Avec le renforcement de l'effectif chargé du support les week-ends et les soirées, par exemple. Même précautions prises chez l'infogérant, avec la mise en place d'un dispositif exceptionnel. En ce qui concerne les ressources techniques, les prévisions de trafic sont fournies par la direction darty.com. L'équipe informatique et réseau les traduit en ressources supplémentaires nécessaires. Cela passe par l'augmentation de la bande passante Internet notamment.

Concernant le réseau interne, l'architecture générale ne change pas, mais les répartiteurs de charge, pièces essentielles dans le raccourcissement des temps de réponse, sont renforcés par l'ajout de nouvelles machines (cloning horizontal). L'algorithme de répartition peut être modifié pour la circonstance. Il faut aussi adapter les socles applicatifs, notamment en dimensionnant le nombre de connexions et en renforçant la taille des moteurs de traitement et de calcul (JVM). Enfin, le matériel est lui aussi dopé par ajout de puissance (CPU, RAM...), la mise en oeuvre de nouveaux de serveurs et l'introduction de disque SSD, plus rapides que les disques mécaniques.

01F4000007698447-photo-data-center.jpg


Cependant, tout se fait dans le data center et aucun débordement n'est prévu sur un cloud public ou privé. Si Darty ne fait pas appel à un prestataire extérieur. L'infogéreur est sollicité pour tout ce qui relève de l'infrastructure technique. Il s'agit, par exemple, de la mise à disposition de serveurs, de la bande passante supplémentaire ou tout autre service qui relève de l'infrastructure matérielle. Sur le plan applicatif, l'intégralité des programmes est développée par les équipes internes de Darty. Pour l'enseigne, cette politique garantit une maîtrise et une réactivité élevée en permanence et surtout lors de ces périodes de pics d'activité.

La continuité de service est garantie par une architecture globale de type PCA (Plan de Continuité de Service) en mode actif/actif. Étant entendu que, si un site plante, l'autre est capable d'absorber toute la charge. Les services centralisés, orientés fonctionnement interne (achats, finances, systèmes décisionnels...), peuvent solliciter un surplus de puissance sur la plate-forme de recette (test) en période de forte activité.

Libéré des soucis d'exploitation

D'autres enseignes s'appuient sur un cloud public. Par exemple, celui d'Amazon Web Services (AWS). L'atout sur lequel mise AWS, c'est son offre Elastic. Celle-ci permet d'augmenter le nombre de serveurs automatiquement. « Ainsi, les clients n'ont pas à prévoir l'installation de nouvelles machines, ce qui est souvent nécessaire en cas de pointe de trafic, comme lors des fêtes de fin d'année, explique Stéphane Hadinger, Sr Manager Solutions Architecture chez AWS. Lorsque les machines supplémentaires ne sont plus nécessaires, il suffit de les éteindre. Elles pourront être utilisées par d'autres clients. La tarification se fait à l'heure d'usage. »

Ce sont les petits sites en ligne qui utilisent principalement AWS, puisque que l'exploitant les libère du poids de la gestion des infrastructures physiques. « Le client n'a pas à se préoccuper des problèmes réseaux ni du provisionnement de ses serveurs, ajoute Stéphane Hadinger. Il peut se concentrer sur son cœur de métier, la vente, ce qui est le plus important en période de fêtes de fin d'année

01C2000007590089-photo-vin.jpg


La souplesse d'abord

Millesima un négociant de grands crus a recours au cloud public AWS. Au total, 80 000 de ses clients sont répartis dans 120 pays. Les commandes par Internet constituent 60% des ventes et, surtout, participent à hauteur de 85% à l'arrivée de nouveaux clients. Le rush de Noël se situe du début de novembre à la première semaine de décembre : délais de livraison par transporteur spécialisé oblige. Il représente 30% des ventes annuelles. Millesima a choisi, en 2011, la solution d'Amazon, après quelques déboires chez des hébergeurs classiques.

00FA000006081124-photo-amazon-web-services.jpg
« Une solution cloud, c'est d'abord la souplesse et une garantie de continuité du service, surtout chez un grand acteur comme Amazon, qui est présent partout dans le monde, affirme Pierre-Alexandre Stanislas, chef projet Web chez Millesima. Nous sommes actuellement hébergés en Irlande. En deux ans et demi, nous n'avons pas connu un seul arrêt et si cela devait, hélas, survenir, il ne faudrait pas plus d'une heure ou deux au grand maximum pour monter toute la configuration sur un autre site. » Pierre-Alexandre Stanislas ne travaille pas directement avec Amazon, mais par l'intermédiaire de deux infogéreurs certifiés Amazon : Innovance et Linkbynet.

Pour faire face au rush de fin d'année, « il suffit d'envoyer un ticket à l'infogéreur pour qu'il monte deux frontaux supplémentaires et ils sont en service en quelques minutes. C'est tout. » Millesima a préféré la formule « à la demande » plutôt que celle automatique, dite « elastic », dans laquelle le système met en place lui-même, en fonction du trafic, les besoins en ressources d'infrastructures.

« Nous maîtrisons ainsi mieux les coûts, puisque ceux-ci sont calculés par heures d'utilisation et que nous commandons nous-mêmes l'ajout de machines », déclare Pierre-Alexandre Stanislas. Quant au prix, il est de 2 400 euros mensuels pour les 14 boutiques (deux frontaux, un serveur backoffice, un répartiteur de charge, un serveur CDN, une plate-forme de préproduction et les services d'infogérance). Pour la période du rush, la facture monte à 3 500 euros, du fait de l'ajout de deux frontaux. Côté humain, il porte uniquement sur les chais, où la vingtaine de personnes qui y travaillent habituellement reçoit le renfort de 2 à 4 saisonniers, œuvrant essentiellement à la logistique.

Ainsi, malgré sa longue barbe et son vieux traîneau le Père Noël vit avec son temps.

A lire également
Haut de page