Non è passato molto tempo da quando le aziende ospitavano le loro applicazioni aziendali critiche esclusivamente nei propri networkdi server e PC client. Il monitoraggio e la risoluzione dei problemi di prestazioni, come la latenza, sono stati facili da implementare.
Sebbene il network Gli strumenti di monitoraggio e diagnostica sono notevolmente migliorati, l'introduzione di una moltitudine di applicazioni SaaS interconnesse e servizi ospitati nel cloud ha notevolmente complicato i tipici network configurazione, che può avere un impatto negativo.
Poiché le aziende esternalizzano sempre più applicazioni e hosting di dati a provider esterni, ciò introduce collegamenti sempre più deboli nel networkI servizi SaaS sono generalmente affidabili, ma senza una connessione dedicata possono essere affidabili solo quanto lo è la connessione Internet che utilizzano.
Da un network Dal punto di vista gestionale, il problema secondario delle app e dei servizi ospitati esternamente è che il team IT ha meno controllo e visibilità, rendendo più difficile per i fornitori di servizi rispettare i propri accordi sul livello di servizio (SLA).
Controllo network il traffico e la risoluzione dei problemi all'interno dell'ambiente relativamente controllato della sede centrale di un'azienda sono gestibili dalla maggior parte dei team IT.
Ma per le organizzazioni basate su un modello aziendale distribuito, con più filiali o dipendenti in sedi remote, l'utilizzo di linee MPLS dedicate si traduce rapidamente in costi elevati.
Considerando che il traffico proveniente da applicazioni come Salesforce, Skype for Business, Office 365, Citrix e altre, in genere bypassa la sede centrale, non sorprende che la latenza stia diventando più comune e sempre più difficile da risolvere.
Una delle prime vittime della latenza è la qualità delle chiamate VoIP, che si manifesta in ritardi innaturali nelle chiamate telefoniche. Tuttavia, con la crescita esponenziale del VoIP e di altre applicazioni UCaaS, questo problema continuerà a peggiorare.
Un altro aspetto in cui la latenza si fa sentire è la velocità di trasferimento dei dati. Questo può causare diversi problemi, soprattutto quando si trasferiscono o si copiano file di dati di grandi dimensioni o cartelle cliniche da una posizione all'altra.
La latenza può rappresentare un problema anche per le transazioni di dati di grandi dimensioni, come la replicazione del database, poiché è necessario più tempo per eseguire le attività di routine.
Impatto della decentralizzazione networke SaaS
Con così tante connessioni a Internet, da così tante posizioni, ha senso per le aziende network Il monitoraggio delle prestazioni deve essere effettuato all'esterno del data center. Uno degli approcci migliori è trovare strumenti che monitorino le connessioni in tutti i siti remoti.
La maggior parte di noi utilizza applicazioni come Outlook, Word ed Excel quasi ogni giorno. Se utilizziamo Office 365, è probabile che tali applicazioni siano configurate per connettersi ad Azure, non al data center aziendale.
Se il team IT non monitora network prestazioni direttamente presso la filiale, perdono completamente di vista l'esperienza utente (UX) in quella sede. Potresti pensare che network funziona bene, quando in realtà gli utenti sono frustrati a causa di un problema non diagnosticato in precedenza.
Quando il traffico proveniente da provider SaaS e altri provider di storage basati su cloud viene instradato da e verso un'azienda, può essere influenzato negativamente da jitter, traceroute e talvolta velocità di elaborazione.
Ciò significa che la latenza diventa una limitazione molto seria per utenti finali e clienti. Collaborare con fornitori vicini ai dati necessari è un modo per ridurre al minimo i potenziali problemi dovuti alla distanza. Tuttavia, anche in un processo parallelo, si possono avere migliaia o milioni di connessioni che cercano di passare contemporaneamente. Sebbene ciò comporti un ritardo piuttosto limitato, questi si accumulano e diventano più grandi sulle lunghe distanze.
L'apprendimento automatico è la risposta all'alta network latenza?
In passato, ogni team IT poteva definire e monitorare chiaramente network percorsi tra l'azienda e il data center. Potevano controllare e regolare le applicazioni in esecuzione sui sistemi interni perché tutti i dati erano installati e ospitati localmente, senza accedere al cloud.
Questo livello di controllo ha consentito di comprendere meglio problemi quali la latenza e di diagnosticare e risolvere rapidamente eventuali problemi che potrebbero presentarsi.
Quasi dieci anni dopo, la proliferazione delle applicazioni SaaS e dei servizi cloud ha ormai complicato network diagnosi delle prestazioni fino al punto in cui sono necessarie nuove misure.
Qual è la causa di questa tendenza? La risposta è semplice: maggiore complessità, distanza e mancanza di visibilità. Quando un'organizzazione trasferisce i propri dati o applicazioni a un provider esterno invece di ospitarli localmente, di fatto aggiunge una terza parte al mix di... network variabili.
Ognuno di questi punti porta ad una potenziale vulnerabilità che può avere un impatto network prestazioni. Sebbene questi servizi siano, per la maggior parte, piuttosto stabili e affidabili, possono verificarsi interruzioni di uno o più servizi, anche tra i più grandi del settore, che possono avere ripercussioni su milioni di utenti.
Il fatto è che ci sono molte variabili in un network scenari che sfuggono al controllo dei team IT aziendali.
Un modo in cui le aziende cercano di garantire le prestazioni è utilizzare un tunnel MPLS dedicato che conduca alla propria sede centrale o al proprio data center. Tuttavia, questo approccio è costoso e la maggior parte delle aziende non lo utilizza per le proprie filiali. Di conseguenza, i dati provenienti da applicazioni come Salesforce, Slack, Office 365 e Citrix non verranno più trasferiti attraverso il data center aziendale, poiché non sono più ospitati lì.
In una certa misura, la latenza può essere mitigata utilizzando metodi tradizionali per monitorare network prestazioni, ma la latenza è intrinsecamente imprevedibile e difficile da gestire.
Ma che dire dell'intelligenza artificiale? Abbiamo tutti sentito esempi di tecnologie che stanno facendo grandi progressi grazie a qualche forma di apprendimento automatico. Purtroppo, però, non siamo ancora al punto in cui l'apprendimento automatico possa ridurre significativamente la latenza.
Non possiamo prevedere con esattezza quando un particolare switch o router sarà sovraccarico di traffico. Il dispositivo potrebbe subire un'improvvisa raffica di dati, causando un ritardo di solo uno o addirittura dieci millisecondi. Il fatto è che, una volta che questi dispositivi sono sovraccarichi, il machine learning non può ancora intervenire su questi cambiamenti improvvisi per prevenire code di pacchetti in attesa di elaborazione.
Attualmente, la soluzione più efficace è quella di intervenire sulla latenza laddove ha maggiori ripercussioni sugli utenti, ovvero il più vicino possibile alla loro posizione fisica.
In passato, i tecnici utilizzavano Netflow e/o una varietà di strumenti di monitoraggio nel data center, sapendo benissimo che la maggior parte del traffico arrivava ai loro server e poi tornava ai clienti. Con una distribuzione dei dati così ampia, oggi solo una piccola parte dei dati raggiunge i server, il che rende il monitoraggio del proprio data center molto meno efficiente.
Piuttosto che affidarsi esclusivamente a un sistema centralizzato network modello di monitoraggio, i team IT dovrebbero integrare i loro strumenti tradizionali monitorando le connessioni dati in ogni sede remota o filiale. Rispetto alle pratiche attuali, si tratta di un cambiamento di mentalità, ma ha senso: se i dati sono distribuiti, network anche il monitoraggio deve essere distribuito.
Applicazioni come Office 365 e Citrix sono ottimi esempi, poiché la maggior parte di noi utilizza regolarmente strumenti di produttività e di comunicazione unificata. È più probabile che queste applicazioni siano connesse ad Azure, AWS, Google o altri, piuttosto che al data center aziendale. Se il team IT non monitora attivamente questa filiale, perderà completamente di vista l'esperienza utente in questa sede.
Scegli un approccio completo e appropriato
Nonostante tutti i vantaggi delle soluzioni SaaS, la latenza continuerà a rappresentare una sfida a meno che i team IT aziendali non riconsiderino il loro approccio network gestione.
In breve, devono adottare un approccio globale e decentralizzato per network monitoraggio che abbraccia l'intero network e tutti i suoi rami. È inoltre necessario trovare modi migliori per monitorare l'esperienza utente e migliorarla secondo necessità.
Concentrati sull'esperienza dell'utente
Non c'è dubbio che la proliferazione di strumenti SaaS e risorse cloud abbia rappresentato un vantaggio per la maggior parte delle aziende. Tuttavia, la sfida per i team IT ora è quella di ripensare l'approccio a network gestione in modo decentralizzato networkUn aspetto importante è sicuramente la capacità di monitorare efficacemente il rispetto degli SLA (accordi sul livello di servizio). Ancora più importante, tuttavia, è la capacità di garantire la qualità del servizio a tutti gli utenti finali.
Per raggiungere questo obiettivo, i professionisti IT devono vedere esattamente cosa stanno sperimentando gli utenti in tempo reale.
Questa transizione verso uno stile di monitoraggio e risoluzione dei problemi più proattivo aiuta i professionisti IT a risolvere network o colli di bottiglia applicativi di qualsiasi tipo prima che diventino problematici per dipendenti o clienti.
Conclusione
Pertanto, per garantire le latenze più basse possibili e un'esperienza utente ottimale, nella maggior parte dei casi il monitoraggio basato su punti di misurazione centrali non è più sufficiente.
Sebbene il monitoraggio possa continuare a rimanere centralizzato, i punti di misurazione devono essere sempre più decentralizzati.
Condividi questo blog:
Timur è il fondatore e CEO di NEOX Networks, Un fornitore leader di network soluzioni di visibilità e sicurezza. Con oltre 25 anni di esperienza nel settore, Timur ha una profonda comprensione delle sfide che i team IT e OT di oggi devono affrontare in network e domini di sicurezza. È appassionato di sfruttare la tecnologia per risolvere problemi complessi e crede che un'efficace network La visibilità è fondamentale per il successo di qualsiasi organizzazione in termini di disponibilità e sicurezza delle applicazioni aziendali. Timur si impegna a fornire soluzioni innovative che soddisfino le esigenze in continua evoluzione dei clienti NEOX.

