Mais do que nunca empresas buscam conexões de rede rápidas e confiáveis para manter a produtividade, que pode ser prejudicada se a velocidade não atender a demanda. E isso não acontece por falta de banda larga, mas pela latência excessiva da rede. Em muitos casos, a melhor solução é o Edge Computing, ou seja, colocar o conteúdo mais próximo aos usuários.
O problema da latência ocorre pela forma como a Internet é projetada e de protocolos, como o Border Gateway Protocol (BGP), por exemplo. O BGP é capaz de contornar quaisquer problemas, permintindo que a Internet se mantenha mesmo em casos de interrupções, mas ele não consegue calcular quanto tempo um determinado pacote vai demorar para chegar ao seu destino. Isso porque o BGP preocupa-se exclusivamente com o número de saltos (hops) entre os endereços de origem e de destino – a rota com menos saltos vence, não importando seu tamanho ou quão congestionada ela esteja.
Consequentemente, parte do tráfego pode sofrer atrasos excessivos, conhecidos como latência. O problema é particularmente grave quando se trata de voz e vídeo, pois pode causar o congelamento de imagens e a parada ou deslocamento das vozes – problema comum para quem usa a internet.
O Edge Computing pode ajudar a aliviar o problema de duas fomas. A primeira opção é implementar uma série de computadores para armazenar o conteúdo em cache, de maneira que ele seja disponibilizado mais próximo dos usuários que o estão consumindo. Isso é essencialmente o que fazem os fornecedores de Content Delivery Network (CDN).
Considere uma empresa multinacional sediada em Nova York. Ela tem usuários em todo o mundo que rotineiramente trabalham dados corporativos, frequentemente baixam arquivos grandes, realizam streaming de webcasts em vídeo e assim por diante. Quem está na matriz ou próximo dela provavelmente não terá problema para acessar o que precisa. Mas, quanto mais longe os usuários estão da matriz, maior será a latência, ou seja, mais tempo levará para acessar e baixar arquivos.
Para resolver a situação, a empresa poderia assinar um serviço de uma CDN que tem dispositivos de armazenamento em cache próximos de onde os seus usuários finais estão localizados. Por exemplo, na primeira vez em que um usuário distante solicitar acesso a um webcast, ele será transferido para um dispositivo de armazenamento em cache próximo dele. Da próxima vez que qualquer usuário no mesmo local ou nas proximidades quiser o mesmo webcast, ele virá do dispositivo de armazenamento em cache, com muito menos latência do que o primeiro download.
A segunda opção é instalar pequenos data centers em diversos lugares pelo mundo, próximos de grandes concentrações de funcionários. Assim, é possível replicar todas as aplicações críticas e sensíveis a atrasos nestes data centers, tais como suítes de comunicações unificadas que suportam voz, mensagens instantâneas e vídeo. O resultado final um desempenho muito melhor em função da redução drástica da latência.
* Alan Satudi é gerente de marketing de produtos da APC by Schneider Electric