Por Rodrigo Parreira, CEO da Logicalis Latin America
Uma mudança muito importante na dinâmica do mercado global de TI ocorreu com o surgimento das empresas gigantes que, em algum momento, se convencionou chamar de Web 2.0. Corporações como Google, Facebook, Amazon e Twitter, entre outras, operam em uma escala massiva no que diz respeito à quantidade de informações e dados que processam e armazenam em tempo real.
Deveríamos imaginar que essas empresas possuem uma demanda praticamente infinita por infraestrutura: servidores, roteadores, sistemas de armazenamento, etc. Para se ter uma ideia, apenas o mecanismo de busca do Google reproduz em seus servidores, em tempo real e com várias camadas de redundância, toda a internet. Sim, TODA a internet, desde a sua origem.
Entendendo que essa quantidade de informações cresce exponencialmente a partir dos diferentes usos de uma rede com cada vez mais penetração, surgem as seguintes perguntas: como ganham escala? Como conseguem desenvolver sua infraestrutura e seus data centers? De onde vêm todos esses recursos financeiros que se transformam em um volume praticamente ilimitado de CAPEX?
A verdade é que essas empresas criaram, ao longo do tempo, um conceito extremamente inovador em termos de arquitetura de TI. Elas desenvolveram internamente suas próprias infraestruturas, fortemente virtualizadas e baseadas em software. Para essas empresas, faz muito mais sentido, em vez de comprar e instalar um equipamento de storage, por exemplo, desenvolver uma aplicação que rode em um servidor genérico e que atue, para todos os efeitos, como um elemento de armazenamento. Servidores, redes, firewalls virtualizados se tornaram os elementos-chave dessas infraestruturas que rodam, em boa parte, sobre as chamadas “white boxes”, isto é, máquinas genéricas baratas e altamente comoditizadas.
Além dos óbvios benefícios econômicos e de escala, essas arquiteturas virtualizadas demonstraram ser extremamente flexíveis e adaptaram-se, de maneira quase nativa, a operações em nuvens, privadas ou híbridas, permitindo alocações dinâmicas de recursos, movimentações automatizadas de carga entre vários ambientes e aprovisionamento de recursos simplificado.
Estamos no momento em que essa tendência começa a se transformar em “mainstream”. Grandes corporações (bancos, indústrias, operadoras de telecomunicações, etc) começam a se perguntar: se essas arquiteturas funcionam para os gigantes da internet, por que não funcionaria também para minha empresa?
Essa compreensão evolui também no contexto de um mercado cada vez mais maduro no que se refere ao desenvolvimento e adoção de plataformas abertas de software. As inúmeras iniciativas desenvolvidas nos últimos 10 anos – como KVM, Openstack, Open Nebula, Open Daylight, etc., de uma forma ou de outra, se relacionam a esse processo, com maiores ou menores graus de maturidade, e mobilizam milhares de desenvolvedores em comunidades virtuais integradas globalmente.
Olhando para o futuro, vemos uma dificuldade cada vez maior de estabelecer as fronteiras entre hardware e software. Analisando esse processo mais profundamente, e levando em conta o papel crucial representado pelas plataformas de software livre nesse processo, trata-se, efetivamente, de uma substituição de infraestruturas físicas por serviços. Sim, pois a adoção de softwares abertos implica necessariamente em um conteúdo grande de serviços de suporte, configuração, desenvolvimento e manutenção. Hardware e infraestruturas que se transformam, no longo prazo em serviços – esta sim é a real tendência!