Il n'y a pas si longtemps, les entreprises hébergeaient leurs applications métier critiques exclusivement dans leurs propres serveurs. networkLa surveillance et le dépannage des problèmes de performance, tels que la latence, étaient faciles à mettre en œuvre pour les serveurs et les PC clients.
Bien que network Les outils de surveillance et de diagnostic se sont considérablement améliorés, et l'introduction d'une multitude d'applications SaaS interconnectées et de services hébergés dans le cloud a considérablement complexifié les processus typiques. network la configuration, ce qui peut avoir un impact négatif.
À mesure que les entreprises externalisent de plus en plus leurs applications et l'hébergement de leurs données auprès de fournisseurs externes, cela introduit des maillons de plus en plus faibles dans le système. networkLes services SaaS sont généralement fiables, mais sans connexion dédiée, leur qualité est limitée à celle de la connexion Internet utilisée.
De network Du point de vue de la gestion, le problème secondaire des applications et services hébergés en externe est que l'équipe informatique a moins de contrôle et de visibilité, ce qui rend plus difficile pour les fournisseurs de services de respecter leurs accords de niveau de service (SLA).
Le Monitoring network La gestion du trafic et le dépannage au sein de l'environnement relativement contrôlé d'un siège social d'entreprise sont gérables pour la plupart des équipes informatiques.
Mais pour les organisations basées sur un modèle commercial distribué, avec plusieurs succursales ou employés dans des endroits distants, l'utilisation de lignes MPLS dédiées entraîne rapidement des coûts élevés.
Si l’on considère que le trafic provenant d’applications telles que Salesforce, Skype Entreprise, Office 365, Citrix et d’autres contourne généralement le bureau principal, il n’est pas surprenant que la latence devienne de plus en plus courante et de plus en plus difficile à résoudre.
L'une des premières victimes de la latence est la qualité des appels VoIP, qui se manifeste par des retards anormaux. Cependant, avec la croissance fulgurante de la VoIP et des autres applications UCaaS, ce problème va continuer de s'aggraver.
La latence est un autre domaine où la vitesse de transfert de données est problématique. Elle peut entraîner de nombreux problèmes, notamment lors du transfert ou de la copie de fichiers de données volumineux ou de dossiers médicaux d'un emplacement à un autre.
La latence peut également être un problème pour les transactions de données volumineuses, telles que la réplication de bases de données, car il faut plus de temps pour effectuer les activités de routine.
Impact de la décentralisation networks et SaaS
Avec autant de connexions Internet, depuis autant d'endroits, cela paraît logique pour les entreprises. network La surveillance des performances doit être effectuée en dehors du centre de données. L'une des meilleures solutions consiste à utiliser des outils qui surveillent les connexions sur tous les sites distants.
La plupart d'entre nous utilisons des applications comme Outlook, Word et Excel presque quotidiennement. Si nous utilisons Office 365, ces applications sont probablement configurées pour se connecter à Azure, et non au centre de données de l'entreprise.
Si l'équipe informatique ne surveille pas network En se concentrant sur les performances directement au sein de l'agence, ils perdent complètement de vue l'expérience utilisateur (UX) sur place. Vous pourriez penser que network tout semble fonctionner correctement, alors qu'en réalité les utilisateurs sont frustrés par un problème qui n'avait pas été diagnostiqué auparavant.
Lorsque le trafic provenant de fournisseurs SaaS et d'autres fournisseurs de stockage basés sur le cloud est acheminé vers et depuis une entreprise, il peut être affecté négativement par la gigue, le tracé de l'itinéraire et parfois la vitesse de calcul.
Cela signifie que la latence devient une contrainte très importante pour les utilisateurs finaux et les clients. Collaborer avec des fournisseurs proches des données nécessaires est un moyen de minimiser les problèmes potentiels liés à la distance. Cependant, même dans un processus parallèle, des milliers, voire des millions de connexions peuvent tenter d'établir une connexion simultanément. Bien que cela entraîne un léger retard, celui-ci s'accumule et s'amplifie sur de longues distances.
L'apprentissage automatique est-il la solution au problème du haut niveau ? network latence?
Auparavant, chaque équipe informatique pouvait définir et surveiller des règles claires. network Les chemins entre l'entreprise et le centre de données étaient sécurisés. Ils pouvaient contrôler et réguler les applications exécutées sur les systèmes internes, car toutes les données étaient installées et hébergées localement, sans accès au cloud.
Ce niveau de contrôle a permis de mieux comprendre les problèmes tels que la latence et de diagnostiquer et de résoudre rapidement tout problème pouvant survenir.
Près de dix ans plus tard, la prolifération des applications SaaS et des services cloud a désormais compliqué la situation. network diagnostics de performance jusqu'au point où de nouvelles mesures sont nécessaires.
Quelle est la cause de cette tendance ? La réponse est simple : complexité accrue, éloignement et manque de visibilité. Lorsqu’une organisation transfère ses données ou ses applications à un prestataire externe au lieu de les héberger localement, elle introduit de fait un tiers dans l’écosystème. network variables.
Chacun de ces points conduit à une vulnérabilité potentielle qui peut avoir un impact. network En matière de performances, bien que ces services soient généralement stables et fiables, des pannes peuvent survenir, même parmi les plus grands acteurs du secteur, et impacter des millions d'utilisateurs.
En réalité, il existe de nombreuses variables dans un network des environnements qui échappent au contrôle des équipes informatiques des entreprises.
Pour garantir les performances, les entreprises utilisent un tunnel MPLS dédié menant à leur siège social ou à leur centre de données. Cependant, cette approche est coûteuse et la plupart des entreprises ne l'utilisent pas pour leurs succursales. Par conséquent, les données d'applications telles que Salesforce, Slack, Office 365 et Citrix ne transiteront plus par le centre de données de l'entreprise, car elles n'y sont plus hébergées.
Dans une certaine mesure, la latence peut être atténuée en utilisant des méthodes traditionnelles de surveillance network Les performances sont bonnes, mais la latence est intrinsèquement imprévisible et difficile à gérer.
Mais qu'en est-il de l'intelligence artificielle ? Nous avons tous entendu parler de technologies qui font de grands progrès grâce à une forme ou une autre d'apprentissage automatique. Malheureusement, nous n'en sommes pas encore au stade où l'apprentissage automatique peut réduire significativement la latence.
Il est impossible de prédire avec précision quand un commutateur ou un routeur sera surchargé. L'appareil peut subir une soudaine rafale de données, entraînant un retard d'une milliseconde, voire de dix millisecondes. En réalité, une fois ces appareils surchargés, l'apprentissage automatique ne peut pas encore gérer ces changements soudains et empêcher la formation de files d'attente de paquets.
Actuellement, la solution la plus efficace consiste à s’attaquer à la latence là où elle affecte le plus les utilisateurs, c’est-à-dire le plus près possible de leur emplacement physique.
Auparavant, les techniciens utilisaient Netflow et/ou divers outils de surveillance dans le centre de données, sachant pertinemment que la majeure partie du trafic arrivait à leur serveur avant de revenir à leurs clients. Avec une distribution de données beaucoup plus large aujourd'hui, seule une petite partie des données parvient aux serveurs, ce qui rend la surveillance de votre propre centre de données beaucoup moins efficace.
Plutôt que de s'appuyer uniquement sur un tel système centralisé network Dans le cadre du modèle de surveillance, les équipes informatiques doivent compléter leurs outils traditionnels en surveillant les connexions de données sur chaque site distant ou agence. Comparé aux pratiques actuelles, cela représente un changement de mentalité, mais il est logique : si les données sont distribuées, network La surveillance doit également être distribuée.
Des applications comme Office 365 et Citrix en sont de bons exemples, car la plupart d'entre nous utilisons régulièrement des outils de productivité et de communications unifiées. Ces applications sont plus susceptibles d'être connectées à Azure, AWS, Google ou autres, plutôt qu'au centre de données de l'entreprise. Si l'équipe informatique ne surveille pas activement cette succursale, elle perdra complètement de vue l'expérience utilisateur sur ce site.
Choisir une approche globale et appropriée
Malgré tous les avantages des solutions SaaS, la latence restera un défi tant que les équipes informatiques des entreprises n'auront pas repensé leur approche. network la gestion.
En bref, ils doivent adopter une approche globale et décentralisée de network surveillance qui englobe l'ensemble network et toutes ses ramifications. Il est également nécessaire de trouver de meilleurs moyens de suivre l'expérience utilisateur et de l'améliorer au besoin.
Concentrez-vous sur l'expérience utilisateur
Il ne fait aucun doute que la prolifération des outils SaaS et des ressources cloud a été une aubaine pour la plupart des entreprises. Cependant, le défi pour les équipes informatiques est désormais de repenser leur approche. network gestion dans un système décentralisé networkUn enjeu important est sans aucun doute la capacité à contrôler efficacement le respect des SLA (accords de niveau de service). Mais plus important encore est la capacité à garantir la qualité de service pour tous les utilisateurs finaux.
Pour y parvenir, les professionnels de l’informatique doivent voir exactement ce que vivent les utilisateurs en temps réel.
Cette transition vers un style de surveillance et de dépannage plus proactif aide les professionnels de l'informatique à résoudre les problèmes. network ou les goulots d'étranglement des applications de toute nature avant qu'ils ne deviennent problématiques pour les employés ou les clients.
Conclusion
Par conséquent, pour garantir les latences les plus faibles possibles et une expérience utilisateur optimale associée, la surveillance basée sur des points de mesure centraux n'est plus suffisante dans la plupart des cas.
Si la surveillance peut encore rester centralisée, les points de mesure doivent être de plus en plus décentralisés.
Partagez ce blog :
Timur est le fondateur et PDG de NEOX Networks, Un fournisseur leader de network Solutions de visibilité et de sécurité. Fort de plus de 25 ans d'expérience dans le domaine, Timur possède une connaissance approfondie des défis auxquels sont confrontées les équipes informatiques et opérationnelles actuelles. network et dans le domaine de la sécurité. Il est passionné par l'utilisation de la technologie pour résoudre des problèmes complexes et croit fermement qu'une approche efficace network La visibilité est essentielle au succès de toute organisation en matière de disponibilité et de sécurité des applications métier. Timur s'engage à fournir des solutions innovantes qui répondent aux besoins évolutifs des clients de NEOX.

