Au cours de ces deux dernières années, le télétravail a régulièrement été imposé dans la mesure du possible par les pouvoirs publics. Désormais le travail hybride s’impose comme la normalité dont le succès dépend des performances des applications exploitées à distance.
La France a fait figure d’exception en matière de travail à distance. Pendant les grèves contre la modification du système de retraite à l’automne 2019, les entreprises avaient déjà anticipé ce phénomène et avaient commencé à renforcer leur stratégie de validation de ces nouvelles infrastructures, en particulier sur l’infrastructure de bureau virtuel, avec le déploiement de solutions type Citrix. Ce galop d’essai a fait l’objet de tests de performance, qui ont pu jouer tout leur rôle lors de la première vague de la pandémie. Le phénomène se poursuit, désormais avec une validation de tests en continu. Le télétravail va certainement perdurer dans un mode hybride et les entreprises qui ont mis en œuvre le télétravail en urgence vont devoir renforcer leur infrastructure et garantir la qualité de service. Selon une étude de Qualtrics, 63 % des décideurs IT estiment que 1/4 des travailleurs exerceront leurs tâches en permanence depuis chez eux. Par ailleurs, 3/4 des décideurs IT affirment qu’ils prendront leurs décisions en fonction des demandes exprimées par leurs collaborateurs. D’autant que plusieurs études montrent que les salariés sont plus productifs chez eux.
Identifier et résoudre les problèmes de performance : un sport d’équipe
Aujourd’hui, faire un simple constat des temps de réponse ne suffit plus. Pour tenir ses engagements de niveau de service, il convient de mettre en place une pratique de bout-en-bout d’ingénierie de la performance. Au-delà de la simple mesure, les outils, les méthodes doivent aider à identifier où sont les problèmes, et doivent permettre de les résoudre. Il est souvent suffisant d’agir sur quelques réglages, encore faut-il savoir où et quels sont les leviers d’optimisation. En même temps que les tests, il faut être en mesure de s’interfacer avec des outils d’APM (Application Performance Management) qui sont capables d’indiquer très précisément les couches logicielles où les applications ont passé trop de temps par rapport à la normale, par exemple relever qu’une requête SQL a nécessité 3 secondes dans certaines conditions. Cela peut notamment permettre d’obtenir des recommandations d’amélioration du code.
En rendant l’ensemble des informations collectées facilement accessibles – car centralisées - et exploitables par tous les profils, des développeurs jusqu’aux experts métiers en passant par les opérationnels, la validation de la performance devient Agile et décloisonnée (nous pourrions parler de DevPerfOps) et réduit d’autant les délais de mise en production et la sécurise. Savoir combiner plusieurs couches de données, de l’APM, de l’outil de test de performance ; de la supervision… tout en les rendant facilement exploitables et compréhensibles et pertinentes par tous les profils ; autrement dit s’assurer que l’ingénierie de la performance soit une préoccupation pour tous et de tous les instants - un sport d’équipe, que l’on pratique en continu et lors de toutes les phases projet ; est ce qui alimente une stratégie efficace.
Au-delà des approches traditionnelles d’analyses statistiques des données, qui permettent d’alerter le testeur et de lui indiquer d’où provient le problème, il est également intéressant de travailler sur des approches basées sur l’intelligence artificielle, par exemple en associant tests de performance et chaos testing. Ces innovations permettent d’aller beaucoup plus loin dans les prédictions et d’identifier automatiquement les variables d’ajustement.
Des environnements et technologies hétérogènes
Nous évoquions en préambule le choix fait par certaines entreprises ; pour répondre aux challenges pandémique de l’approche de bureau virtuel. D’autres solutions sont possibles : si pour l’accès à distance au système informatique le VPN est une approche facile à mettre en place dans l’urgence, des entreprises ont fait le choix de migrer leurs applications vers le cloud, d’adopter des solutions SaaS en remplacement de l’existant, ou de moderniser et « APIfier » leur existant. Cela induit une hétérogénéité et une hybridation des environnements et des technologies qui doivent être soumis à l’épreuve des tests de performance. D’où l’importance de s’équiper d’un outillage à même d’adresser cette diversité, en particulier en termes de protocoles supportés.
E-commerce : trafic en très forte hausse et défis des premiers sites de e-commerce de proximité
Pour les sites de e-commerce, et surtout la logistique associée, les principaux problèmes auxquels ils ont dû faire face est l’explosion des volumes de transactions. Un des défis pour assurer les tests de performance peut être l’infrastructure à mettre en œuvre pour exécuter ces tests, parfois avec des millions d’utilisateurs concurrents. Le déploiement d’une infrastructure de test pour de telles volumétries peut se révéler complexe, longue et coûteuse. Déployer à la demande et dans le cloud l’infrastructure de test, et pour la durée du test uniquement, est un atout majeur pour minimiser les coûts et accélérer ces campagnes.
De plus, la pratique consistant à exécuter exclusivement les tests au plus proche des serveurs n’est plus suffisante. Pour réaliser une mesure représentative il faut pouvoir se mettre dans les conditions de l’utilisateur final, depuis plusieurs points de présence, et en prenant en compte les différentes contraintes réseau. La capacité à injecter la charge à la fois depuis son infrastructure et depuis le cloud est alors primordiale. Cela permet également de valider la performance de bout-en-bout, en incluant toute l’infrastructure qui supporte les services métiers. Ce test de bout-en-bout peut également inclure la perception, l’expérience Utilisateur, en testant depuis des devices mobiles réels.
Face à ces challenges, plutôt propres aux plus gros acteurs du commerce en ligne, d’autres ont dû faire leurs premières armes : les petits marchands qui se sont lancés dans la vente à distance ou le Click-And-Collect. Leurs défis ont alors été de pouvoir disposer d’un outillage facilement utilisable, ne nécessitant pas d’expertise technique outre-mesure, et économiquement viable. Dans ce contexte, des modèles de consommation à la demande avec une granularité de facturation peut se révéler un atout stratégique, lorsque ces nouveaux acteurs souhaitent voir si leur site peut poser problème.
Les clefs du succès résident dans le fait de dé-siloter, impliquer tous les acteurs, tester plus tôt et en continu ; d’introduire de nouvelles pratiques de test, de combiner les sources et les données, en les rendant facilement accessibles et exploitables ; d’accélérer l’identification et la résolution des anomalies ; de donner la capacité à adresser la diversité des systèmes et des technologies ; de mettre à disposition des environnements et infrastructures on-premise, cloud ou hybrides ; et enfin de proposer des modèles d’usage et de consommation flexibles répondant aux différents besoins.