Raymundo Peixoto, vice-presidente da Dell Technologies para América Latina. Foto: divulgação.

Um número crescente de empresas tem investido em uma estratégia de multicloud como uma forma de reduzir custos, aumentar a eficiência operacional e aproveitar os melhores recursos oferecidos por diferentes fornecedores.  

Esse movimento começou quando as empresas estabeleceram, como primeira onda de migração para nuvem, um modelo inicial de consumo das capacidades de seus datacenters, por meio da criação de catálogos de serviços e portais de auto-atendimento, dinamizando a interação com as áreas de negócio e a percepção de agilidade no provisionamento de recursos.  

Em um segundo momento, evoluíram para um modelo híbrido, onde o ambiente interno se comportava como instância da cloud pública, permitindo transbordos de workloads, adicionando elasticidade para demandas sazonais, desenvolvimento de novas aplicações, de forma rápida e com custo competitivo.

Com isso, é possível manter os controles e diretrizes de segurança e desempenho para aplicações críticas, alavancando a infraestrutura de datacenters que, por sua vez, cada vez mais ganhavam capacidades do tipo “cloud aware”. 

 

O que seria então essa terceira onda, conhecida como multicloud? O que leva os clientes a buscarem essa alternativa, quais os benefícios, os desafios associados e como enfrentá-los? 

Para entender esse fenômeno é importante compreender antes quais são as forças que regem a dinâmica das cargas de trabalhos associadas às aplicações de negócios e usuários finais das empresas. São três leis que, por si só, ditam as regras que governam a mobilidade dos workloads:  

· A Lei da física – fatores como conectividade de rede, latência e volume de dados devem ser levados em conta quando da definição da localidade do workoad. Latência está associada à limites físicos, assim como conectividade de rede de alto desempenho requer investimentos elevados, de acordo com o nível de capilaridade desejado.  

· A Lei da Economia – fatores para definição de compra de componentes computacionais, de armazenamento e de rede, também são determinantes na definição da localidade dos workloads.

Soluções internas são preferenciais para projetos de médio a longo prazo, com mais necessidade de controle da segurança e maior criticidade para o negócio. Enquanto a nuvem pública é a indicação para operações com pouco investimento e que precisam de agilidade. 

· A Lei da Governança – é preciso levar em consideração as legislações vigentes como a Lei Geral de Proteção de Dados (LGPD), regulamentações de indústrias, taxas e impostos, que também impõem regras que determinam a localidade dos workloads.

Não são obrigações diretamente relacionadas à tecnologia, mas às especificidades de aplicações e cargas de trabalho. Para atender essas imposições, é fundamental a disponibilização de capacidade tecnológica para prover, de maneira efetiva, a mobilidade dos workloads. 

 

Mobilidade de workloads 

O conceito de mobilidade dos workloads está diretamente associado à capacidade de governança, via software, dos componentes de computação, armazenamento e rede.

A abstração das dependências físicas, relacionadas à infraestrutura, permite que seja estabelecido o modelo de Software Defined Computing (SDC), Software Defined Storage (SDS) e Software Defined Networking (SDN).

É preciso gerenciar e orquestrar componentes de forma automática, com workflows e procedimentos estabelecidos para ter um Software Defined Data Center (SDDC), onde máquinas virtuais, containers, micro serviços, códigos fontes e funções podem ser movidos de forma transparente entre infraestruturas e localidades heterogêneas.

Com isso definido, resta saber quais são as localidades de uma arquitetura multicloud.  

 

Localidades Multi Cloud: CORE, CLOUD e EDGE 

Quando o workload é localizado no datacenter da empresa, suportado no “Core”, é possível aproximar a experiência do ambiente interno, com a agilidade e flexibilidade necessárias, por meio da implementação de TI orientada ao consumo de serviços (IaaS), com plataformas e infraestrutura que também disponibilizem propriedades cloud enabled.

Quando nem data center e nem equipe de TI são das empresas, as cargas de trabalho estão na “Cloud Pública”. Ainda há a “Edge” – ou “Borda” –, que são infraestruturas localizadas onde não existem sequer datacenters ou mesmo equipes de TI estabelecidas.

A Edge deve ficar próxima à origem dos dados, oferecendo velocidade no processamento de dados e gerando redução de latência para comunicação. 

Em resumo, em ambientes Multi Cloud a arquitetura de TI deve se comportar como uma malha única, com gestão integrada e unificada, de forma a servir os diversos perfis de aplicações de negócio, permitindo flexibilidade e agilidade, ao mesmo tempo que garante segurança e desempenho necessários para aplicações de missão crítica.

Para isso, é preciso assegurar que a dinâmica de distribuição seja transparente e consistente, sem demandar treinamentos contínuos e gestões isoladas ou em silos. E para isso, deve-se considerar: 

· Infraestrutura: com propriedades e capacidades comuns entre os objetos gerenciados, independentemente da localidade. Por exemplo, nas Máquinas Virtuais (VMs), deve ser permitido adicionar memória, poder computacional e armazenamento, de forma consistente, em todas as localidades, não importando se as VMs se encontram no CORE, na CLOUD ou no EDGE. 

· Operação: devem existir padrões de procedimentos para todas localidades, para que um profissional de gestão possa executá-los sem novos treinamentos e, sobretudo, com possibilidade de automação que permita atuar em objetos das diferentes localidades por meio de interfaces e procedimentos comuns. 

· Serviços: a operação e a infraestrutura precisam de serviços, que permitam automação da gestão, conteinerização, comunicação, desenvolvimento e execução de códigos.  

 

Plataformas para ambientes CORE, CLOUD e EDGE 

Existem especificações para cada ambiente. Plataformas para “Core” devem ser compostas por uma suíte de software capaz de gerir todos os elementos de SDDC em um ciclo de vida de gerenciamento integrado, para incluir computing, storage e network.

Ainda existe a possibilidade de utilizar uma infraestrutura convergente, com combinação de hardware para simplificar a gestão dos componentes.

Ou ainda, utilizar como infraestrutura soluções de ambientes virtualizados que permitem maior flexibilidade, mas com maior risco de gestão em relação à manutenção da automação e orquestração; e companhias que optam por construir sua própria plataforma, com maior risco técnico e de gestão.  

Para plataformas Cloud, o que se utiliza é a suite de software para gestão de SDDC, de forma a garantir consistência de gerenciamento e mobilidade de workloads para Core e Edge.

No entanto, a infraestrutura tecnológica é disponibilizada por cada provedor de nuvem pública, com peculiaridades considerando as diferenças de cada nuvem.

Na ponta, como tipicamente não existe infraestrutura de datacenter disponibilizado e nem equipe de gestão, o que é disponibilizado é a mesma suite de software unificada para gestão do SDDC, com um portal de cloud para gestão remota embarcado em racks ou meio-racks, que possuem o conceito de datacenter in a box, sem necessidade de qualquer configuração local. 

Em arquiteturas multicloud, é importante que a camada de gestão definida pela suíte de software para orquestração do SDDC seja a mesma em todas as plataformas.

Isso permite um dashboard de gerenciamento unificado, transparente e consistente, independente da localidade do workload. 

 

Como mapear as aplicações e workloads para as localidades corretas? Como transformar meu portfólio de aplicações e alavancar o máximo do meu Modern Datacenter e das capacidades de Multi Cloud? 

Abordagens multicloud se concretizam de forma eficaz quando utilizadas para otimizar custos e ganhos de agilidade, tanto na execução das aplicações críticas, como no desenvolvimento de aplicações cloud nativas.

Mas, para que a área de TI possa ser efetiva, é fundamental a realização de um levantamento do portfólio de aplicações, para entender quais serão aposentadas, as que não precisam de alterações – e permanecer em plataformas on premise –, e ainda aquelas que devem ir para nuvem – algumas poderão migrar em modelo lift and shift e outras precisarão de redevelopment, para aproveitar os benefícios plataforma. 

Para assegurar que fluxos contínuos de desenvolvimento, teste, validação, que possam ocorrer de forma automatizada, com múltiplas e contínuas iterações, é fundamental a mudança da mentalidade corporativa, revolucionando a cultura pré-estabelecida em muitas empresas, quebrando os silos de desenvolvimento, produção e operação.

Pois nessa nova realidade, o número de alterações e atualizações nas aplicações tende a ser muito superior, pois a velocidade de desenvolvimento e evolução das aplicações deve acompanhar o novo ritmo frenético da transformação digital e da expectativa das novas gerações e dos novos modelos de negócios das empresas, completamente baseados em software, que esperam respostas cada vez mais rápidas e eficientes.

Nesse contexto, é fundamental, como mencionado, mover cada workload e cada aplicação para a localidade apropriada. 

Por fim, qualquer que seja a estratégia multicloud, é importante o profundo conhecimento das demandas do negócio. A TI é uma área parceira, funcionando como um habilitador da inovação e de oportunidades.

Afinal, o caminho do sucesso das empresas passa, necessariamente, por uma abordagem multicloud consistente, que combine um ambiente de TI preparado para controlar e tirar o melhor proveito dos diversos provedores de nuvem.

*Por Raymundo Peixoto, vice-presidente sênior de soluções para datacenter da Dell Technologies para América Latina.