Un cadre supérieur de Microsoft a expliqué pourquoi l’analyse comparative des PC cloud est un processus incroyablement délicat qui, dans de nombreux cas, n’est tout simplement pas possible.
Dans un récent article de blog (s’ouvre dans un nouvel onglet)Microsoft Windows 365 Cloud PC et Azure Virtual Desktop Senior Product Manager, Ron Martinsen a expliqué pourquoi il est presque impossible de comparer le cloud computing en raison de l’énorme quantité de variables.
Au lieu de cela, nous devrions simplement croire que les mises à niveau continues nous offrent des performances optimales.
La comparaison des ordinateurs cloud est difficile
Martinsen s’est appuyé sur près de trois décennies d’expérience et sur « d’innombrables études de performances » pour expliquer comment « il est presque impossible d’obtenir des données reproductibles dans un environnement qui reflète la réalité de ce que les utilisateurs utiliseront ».
Il poursuit même en expliquant que des tests répétés peuvent donner des résultats différents et que faire des comparaisons valides peut être au mieux difficile. Avec ce conseil, il est préférable d’opter pour du matériel virtuel qui répond ou dépasse les exigences plutôt que d’essayer de comparer des chiffres qui ne représentent pas la réalité.
Dans son article de blog, Martinsen explique que le système d’exploitation, la latence du réseau, la mise en cache du contrôleur de disque et l’optimisation de la mémoire sont parmi les facteurs les plus importants à prendre en compte lors d’une tentative d’évaluation.
Mettez cela dans le contexte du cloud computing « où le calcul hôte s’exécute sur un cluster et dessert un nombre variable de PC Cloud actifs » et le nombre de variables devient « écrasant » – et plus encore pour les charges de travail de virtualisation comme le sous-système Windows pour Linux .
Ensuite, il y a le fait que le bureau virtuel auquel vous avez accédé il y a un an aura probablement été mis à jour et mis à niveau dans les mois suivants, ce qui l’aidera à améliorer ses performances et/ou son efficacité.
Pour aller de l’avant, même en dehors du contexte du cloud computing, Martinsen reproche aux tests de benchmarking d’être effectués dans des environnements stériles dans lesquels les meilleurs chiffres possibles sont obtenus – et non des chiffres relatifs qui s’appliquent à des cas d’utilisation spécifiques.
Pour conclure, s’il est probable que des chiffres de référence plus élevés se traduiront par une amélioration des performances pour l’utilisateur final, la différence ne sera presque jamais aussi nette. Quant au cloud computing, Microsoft indications de performances relatives (s’ouvre dans un nouvel onglet) servir de base de comparaison.