Software Defined Storage…..EMC ViPR……o quê e porquê…


Image 

ViPR é o produto recentemente lançado pela EMC que vem atender aos quesitos estabelecidos pelo modelo de entrega de infraestrutura de armazenamento atualmente conhecido como “Software Defined Storage” ou “SDS”.

Existe uma certa confusão no mercado sobre o que vem à ser SDS e o que tem isto à ver com “storage virtualization” e outras formas novas de implementar soluções de armazenamento de dados.

Podemos entender que além dos modelos de implementação tradicionais já bastante disseminados e, portanto, bem conhecidos pelos profissionais de TI, conseguimos citar aqui ao menos três novos modelos os quais vêm conquistando seu espaço no mercado.

São eles:

Storage Virtualization:

Modelo que consiste na virtualização do “Plano de Dados” dos sistemas de armazanamento de dados.

A implementação deste modelo se dá normalmente através da adição de um appliance no caminho dos dados entre as portas de acesso aos storage físicos (frontend storage ports) e as HBAs dos hosts que irão consumir os recursos de storage através da SAN (in-band).

As principais funções deste appliance são a organização/agrupação de volumes criados nos storages físicos em volumes lógicos (virtuais) criados no appliance virtualizador e oferecer acesso à estes volumes virtuais aos hosts através da implantação de um namespace unificado.

Os principais benefícios oferecidos por este modelo de implementação são a possibilidade de migração online dos dados entre diferentes frames de storage, a possibilidade de implementar um modelo de replicação ativo/ativo, a facilidade de realizar renovações tecnologicas com o mínimo ou mesmo sem nenhum downtime ao menos para as aplicações de missão crítica da companhia.

Software Based Storage ou SBS:

Consiste na criação de volumes de storage distribuídos e protegidos entre diversos hosts físicos à partir dos discos locais destes mesmos hosts de maneira à dispensar a implementação de uma rede SAN entre os hosts físicos e os frames de storage tradicionais bem como os frames em sí.

A conexão dos discos aos hosts físicos se dá no modelo DAS (Direct Attached Storage) e o modelo de implementação SBS normalmente requer a existência de um número mínimo de dispositivos de armazenamento baseados em tecnologia Flash por host os quais dispensam os componentes mecânicos das tecnologias tradicionais de disco e, portanto, oferecem um tempo de resposta no acesso aos dados muito menor em comparação com a tecnologia legado.

Os principais benefícios deste modelo são a possibilidade de redução de custos de aquisição através da possibilidade de eliminação da SAN e dos frames de storage tradicionais, bem como a simplificação da infraestrutura de storage e consequentemente da sua administração.

Software Defined Datacenter ou SDS:

Consiste em um modelo que implementa através de software a abstração das capacitações do storage dinamicamente derivadas de dispositivos e/ou serviços de armazenamento físicos e virtuais independente de localidade ou classe de serviço.

Visa a melhoria da agilidade e entrega de qualidade de serviço ao mesmo tempo em que traz a otimização e até mesmo o controle de custos.

Os serviços de armazenamento podem ser orquestrados através de interfaces programáveis em tempo real interoperáveis através de camadas de software separadas em plano de controle (gerenciamento) e plano de dados (infraestrutura).

O modelo de SDS orquestra serviços de armazenamento de dados independentemente de onde o dado é colocado e como é armazenado. Isto é realizado através de software que, por sua vez irá traduzir estas capacitações em serviços de armazenamento que atendem à uma política ou SLA definidos.

Os principais benefícios deste modelo são a redução do tempo de entrega de um serviço através da simplificação do gerenciamento dos sistemas de armazenamento alavancada pela abstração e padronização dos serviços de storage categorizados por níveis de serviços e disponibilizados para consumo na forma de catálogo de serviços através de portal de usuário, a eliminação de erros operacionais cometidos por humanos, a redução da necessidade de conhecimento profundo de diferentes tecnologias de armazenamento, a possibilidade de integração com tecnologias variadas de armazenamento de dados bem como com sistemas variados de orquestração e gerenciamento em nuvem, o uso otimizado dos sistemas de armazenamento por permitir entregar o nivel de serviço que melhor atende às políticas e SLA demandados por cada workload de aplicação e o fato de ser um modelo “out-of-band”, ou seja, não causa “downtime” de aplicações caso o sistema de SDS venha à sofrer parada planejada ou não.

Por aquí já conseguimos identificar que os modelos citados acima não necessariamente competem entre sí o tempo todo, pelo contrário, em alguns cenários podem até se integrar.

Podemos, por exemplo, chegar ao ponto em que uma solução de SDS venha oferecer suporte ao gerenciamento e orquestração do provisionamento tanto de uma solução de SBS como de uma solução de “storage virtualization”.

EMC ViPR:

A EMC procurou, com o desenvolvimento do ViPR, chegar o mais próximo possível do modelo de entrega definido por SDS à fim de, por consequência, herdar também os benefícios citados acima trazidos por este modelo.

Procurou também endereçar através desta solução as principais dores observadas em seus clientes como por exemplo o crescimento desenfreado dos dados, a demanda por profissionais qualificados em diversas tecnologias de armazenamento (vulgo especialista/generalista), a falta de padronização nas operações, a complexidade do gerenciamento distribuído tanto em element managers como em silos diferentes, o tempo e o custo de entrega dos serviços, entre tantos outros.

Primeiramente o ViPR tem a capacidade de descobrir as características dos frames de storage, sistemas de proteção e replicação de dados, SAN switches, hosts com sistema-operacional instalado em “bare-metal” (sem a camada de virtualização) e hosts/clusters de virtualização apresentados à ele através de tecnologias disponíveis para estes elementos sem a necessidade de instalação de agentes.

Descobertos os elementos à serem gerenciados, ele permite efetuar o agrupamento dos recursos descobertos em objetos reconhecidos por ele como VSA (Virtual Storage Appliance) que são normalmente delimitados por localidade ou domínios de falha ou mesmo por abrangência do Fabric e que irão conter todas as características de todos os objetos (Storage, switches, hosts,…) do Fabric pertencente à um dado VSA.

Uma vez definidos os VSAs, poderão então ser criados os Virtual Storage Pools os quais irão definir os serviços e o nível de serviço disponibilizados pelo pool através da escolha de características como tipo de Storage (block/file), o tipo de proteção (RAID 5/6/10…) e as tecnologias de discos (NL-SAS/SAS/SSD), as políticas de auto-tiering, os protocolos de acesso, opções de expansão do Storage, clones e snapshots bem como proteção remota do mesmo.
Cada VSP deverá ser associado à um ou mais VSAs.

Deverão então ser criados os “Projects” os quais serão associados aos usuários ou grupos de usuários (tenants) dos serviços que serão relacionados ao projeto.

Em cada projeto é possível também definir uma quota (em GB) de alocação do tenant aos serviços disponibilizados ao mesmo bem como a criação de ACLs que definem quais usuários do tenant tem acesso à quê relacionado aos serviços.

Para o caso de aplicações distribuídas em mais de um volume que terão componentes de proteção dos dados associado ao serviço de armazenamento (snapshot/clone locais e/ou replicação remota) consumido pela mesma, poderão também ser criados “Consistency Groups” de forma à permitir ao ViPR o controle do sincronismo dos dados no momento da parada de uma replicação ou clone dos volumes da aplicação.

O portal de configuração do administrador do ViPR já traz em seu catálogo de serviços diversas categorias de serviço com todos os modelos de serviços possíveis de serem entregues através da ferramenta previamente configurados.

É possível definir uma nova categoria e serviço do zero bem como derivar os serviços dos já existentes no ViPR para redefinição de algumas premissas do serviço como a possibilidade de amarração do mesmo à um dado VSA e/ou VSP e/ou Project (tenant), definição de tamanho máximo de criação de volume atendido pelo serviço, se deverá passar por aprovação antes do provisionamento do mesmo e se deverá ser executado somente dentrou de uma dada janela de execução.

Os serviços disponibilizados podem ser categorizados em criação de file ou block volumes, entrega destes em servidores físicos e hypervisors e serviços de proteção dos volumes onde dentro de cada categoria existe um número de serviços diversificados de acordo com os detalhes de cada um.

Estes serviços são então disponibilizados à cada tenant à partir do portal do usuário do ViPR.

O acesso tanto de administradores como de usuários do ViPR pode se dar através do Portal Web disponibilizado no produto como também através de linha de comandos e APIs facilitando a integração do mesmo à ferramentas externas como um produto de “Cloud Management Portal”, por exemplo.

Ainda, o ViPR facilita a integração do produto com Frames de Storage que ainda não fazem parte da matriz de compatibilidade do produto através da disponibilização de um pacote de SDK.

Toda a funcionalidade descrita até aqui se encontra na camada de plano de controle do ViPR e atende perfeitamente ao modelo de “Software Defined Storage” exposto mais acima.

Adicionalmente ao plano de controle, o ViPR oferece também um plano de dados para “Object Storage” no modelo chamado pela EMC de “Object-on-File Data Service” que visa simplificar o provisionamento e consumo deste modelo de armazenamento baseado em objetos mesmo para clientes que não tenham adquirido um frame específico para Object Storage.

O “Object-on-File Data Service” permite a criação de “Frontends” de acesso para armazenamento de dados no modelo “Object Storage” porém utilizando como “Backend” Frames de Storage baseados em “File” (EMC VNX/Isilon e Filer Netapp).

Através das APIs do ViPR é possível definir se uma área de armazenamento irá suportar somente Objects, se irá suportar Objects apenas para leitura e File para leitura e escrita ou se suportará ambos para leitura e escrita ao mesmo tempo.

Um caso de uso para isto seria a possibilidade de executar a edição e armazenagem de vídeos através do acesso no modo File e ao mesmo tempo disponibilizar estes vídeos para acesso através da Internet através do modo de acesso object, por exemplo.

Ainda, este serviço de dados suporta as APIs padrão de mercado “EMC Atmos”, “Amazon S3″ e “Openstack SWIFT” o que significa que aplicações que utilizam a tecnologia de armazenamento de dados tipo “Object Storage” e que tenham sido escritas com base em um destes três padrões de API poderão ser facilmente migradas entre um DataCenter que utiliza o ViPR “Object-on-File Data Service” e datacenters públicos ou privados que utilizem qualquer uma destas tecnologias sem a necessidade de ter de reescrever a aplicação.

O ViPR está na versão 1.0 e já conta com suporte à provisionamento de serviços de storage “Block”, “File” e “Object” e já existe roadmap para em breve estar suportando também “HDFS” para atender às necessidades de processamento de Big-Data, ou seja, esta tecnologia tem tudo o que precisa para se tornar um “must have” para a maioria dos datacenters que sofrem alguma das dores que ele vem endereçar.

EMC World 2012 por quem esteve lá…


A edição de 2012 do EMC World chegou ao fim ontem e a EMC parece ter entregado uma vez mais à seus clientes, parceiros, funcionários, prospectos e geeks (ou melhor, futuros “Cloud Freaks”) em geral um show que provou ter em seu DNA traços que apenas podem ser encontrados nos melhores eventos do show biz com endereço certo em Las Vegas.

Isto não apenas pelos diversos lançamentos que foram sendo anunciados e que à esta altura jà encontram lugar de destaque nos principais noticiários do mundo geek, mas também pelo nível das apresentações onde, mais que falar de produtos, o foco esteve todo o tempo nas conversações com os clientes sobre suas necessidades reais e como transformar seu ambiente de TI para que possam atingir o nível de maturidade na adoção da computação em nuvem que os permitirá alcançar os níveis de qualidade, controle, segurança, flexibilidade, elasticidade, simplicidade de gerenciamento, escalabilidade e automação sem por isso ter de aumentar os custos de operação de TI.

O “Hands On Labs” deste ano também foi motivo de grande orgulho para a companhia pois contou com um catálogo de mais de trinta ofertas de Labs com produtos EMC e VMware contextualizados em situações cotidianas de clientes de forma à deixar um entendimento bastante cristalino aos participantes das sessões sobre o poder de transformação oferecido por estas tecnologias quando aplicadas em conjunto como solução para estas demandas.

Foram executados mais de três mil sessões de Labs onde mais de trinta mil máquinas virtuais foram criadas e destruídas no que por sí só, independente do que pretendia o conteúdo de cada lab, já foi mais que suficiente para demonstrar o poder e elasticidade que o modelo de computação em nuvem tem para oferecer.

Ainda, voltando um pouco ao contexto de Vegas, a EMC tem a felicidade de haver encontrado em uma única personalidade a qualidade de ser um verdadeiro “Show Man”, um “Geek” por escolha (ou “Nerd” como preferem os Canadenses) e um Executivo completo com uma grande visão de mercado e um grande poder de gerar a onda de transformação que a EMC precisava para se tornar a empresa com a melhor iniciativa, portfolio e capital humano para liderar o movimento que empreende a jornada à computação em nuvem.

Não há dúvida que estou falando sobre o Chad Sakac ( Blog: http://virtualgeek.typepad.com ), e creio que quem assistiu pelo menos ao “Chad’s World” que aconteceu ao vivo durante o EMC World vai acabar concordando com estas afirmações.

Bem, o horário do meu vôo está próximo e vou encerrando por aqui e para os que participaram dos shows espero que tenham se divertido bastante e tomara que nos encontremos lá novamente em 2013, para os que não puderam ir, mostrem aos seus chefes o que têm à dizer os que estiveram là através do link https://mobile.twitter.com/#!/search/%23emcworld e espero poder encontrá-los também no próximo ano.

20120525-063859 PM.jpg

Pensando Big, “BIG” Data


Big Data……embora o nome nos dê uma boa dica do que o assunto vem à tratar, devemos nos atentar ao fato de que não se trata apenas de uma quantidade enorme de dados que devem encontrar uma área de tamanho suficiente para seu devido armazenamento, mas de uma quantidade enorme de dados desestruturados, todos espalhados por diversas localidades e sofrendo acessos de leitura e escrita em tempo real à partir de pontos remotamente espalhados e controlados por uma gama imensa de aplicações de última geração as quais fogem aos padrões e conceitos previamente adotados, como por exemplo o velho “client-server”, dando lugar à conceitos como aplicações em nuvem com processamento distribuído, portáveis à variadas plataformas e com facilidade de se integrar com diversas outras aplicações com iguais características.

Isto significa que devemos pensar em adotar uma nova infraestrutura de processamento, armazenamento e acessibilidade à estes dados com características tais que nos permitam atender à demanda que o Big Data já está gerando.

Esta mudança já está em curso e não há mais caminho de retorno pois os usuários desta nova geração de aplicações já assimilaram este novo modelo e as facilidades que disponibiliza à suas vidas cotidianas, sejam estes usuários corporativos trabalhando em cooperação com outros profissionais espalhados ao redor do mundo através de aplicações em nuvem ou um garoto que compra músicas e aplicações na Apple Store com o intuito de poder acessá-las com total mobilidade à partir de qualquer de seus diversos dispositivos móveis ou não no momento que bem entender.

Apenas para citar, algumas das tecnologias sendo empregadas para suportar a crescente expansão do Big Data são o MPP (massively parallel processing) databases, os grids de datamining, filesystems distribuídos, databases distribuídas, plataformas de computação em nuvem, a própria Internet e todo seu poder crescente de conectividade e sistemas de armazenamento escalonáveis.

Sobre o armazenamento, algumas das características que precisamos para atender bem à esta nova demanda gerada pelo Big Data seriam a escalabilidade rápida e simples do dispositivo de armazenamento, a eficiência de forma que venha a otimizar este armazenamento, sua performance, a capacidade de federar recursos, a possibilidade de integração com camadas de sistemas operacionais e aplicações para gerar automação de tarefas básicas, seu gerenciamento integrado e simplificado e a possibilidade de executar o backup eficiente e seguro dentro de janelas de tempo aceitáveis ao negócio e tudo isso ainda à preços que viabilizem os projetos de infraestrutura como um todo.

Já existem alguns produtos disponíveis no mercado os quais foram desenvolvidos para atender à determinadas demandas que vão além do modelo de storage tradicional como exemplos o Atmos (Object Content based Storage), o Isilon (Distributed Filesystem – Scale Out NAS), o Vplex (Active-Active Storage Virtualization), o Avamar (backup com desduplicação de dados na origem), o DataDomain (desduplicação no destino) e, por fim, o projeto “Lightning” da EMC que vem implementar a extensão da área de cache do storage diretamente ao host através de cartões HBA PCIe contendo tecnologia “Flash SSD” que por sua vez se integram com a tecnologia EMC FAST (Fully Automated Storage Tiering).

Mesmo os modelos de storage tradicionais vêm sofrendo algumas metamorfoses bastante significativas de forma à não mais importar apenas as características relacionadas à sua performance, conectividade, escalabilidade e capacidade mas também suprir as características já citadas aqui e que irão atender às necessidades impostas pelo Big Data e o modelo de computação em nuvem.

Quanto à capacidade de processamento de toda esta carga de informações sendo geradas, armazenadas e acessadas em tempo real, existem também algumas tecnologias que estão transformando as ferramentas responsáveis pelo processamento de bases de dados transacionais e analíticas.

Dentre as diversas tecnologias que temos visto ganhar destaque no campo dos databases analytics para processamento de imensas massas de dados são os “Data Appliances” que disponibilizam o processamento paralelizado de dados através de GRIDs de servidores e empregam modernos algorítimos os quais otimizam o processamento através da compressão e redução de overhead desnecessários como índices e partições de dados. Dentre outras, algumas das características marcantes desta classe de applicances são o grande poder de efetuar a carga/processamento de uma enorme quantidade de dados em tempo reduzido e a forma como podem ser facilmente escalonados para acompanhar o aumento da demanda por processamento.

Podemos citar como exemplo desta tecnologia de processamento de databases analíticos o EMC Greenplum.

Outra tecnologia que vem se posicionando à fim de atender tanto a demanda de processamento de databases transacionais como analíticos é o modelo conhecido como “IMDB” (In-Memory-DataBase) o qual além de paralelizar também o processamento através da adoção de GRIDs de servidores, não apenas processa os dados em memória RAM como também mantém os dados armazenados em memória (próximo ao processador) de forma à alcançar tempos de resposta antes considerados impossíveis.

Para proteger estes dados em memória existem alguns mecanismos que podem ser aplicados e vão desde o uso de NVRAM para o armazenamento destes em caso de queda do servidor até um modelo híbrido que considera o uso de dispositivo de storage por detrás deste database apenas como recurso secundário de proteção dos dados dependendo do fornecedor adotado para empregar a tecnologia.

E ao falarmos sobre o acesso à estas informações, estamos sim falando de largura de banda e tempos de resposta (RTT – Round Trip Time) mas estamos falando também de tecnologias que devem ser implementadas à fim de atender à este requerimento sempre crescente sem que os custos cresçam na mesma proporção.

Ou seja, estamos falando sobre redes convergentes que irão suportar diversos protocolos, interfaces e padrões de conectividade para ambas as redes de armazenamento de dados como para as redes de conexão dos usuários com suas aplicações e a interconexão entre aplicações tudo concentrado em uma mesma classe de switches inteligentes gerenciados de forma única e distribuídos no datacenter de forma à promover também economias com cabeamento estruturado, espaço e circulação de ar no datacenter.

Então fica aqui a pergunta: Estamos preparados para atender às demandas impostas pelas novas classes de aplicações disponíveis hoje no mercado ?

VMworld 2011…..o Sonho Utópico ?!?


Estamos à poucos dias para o VMworld 2011 e estava cá refletindo: “Está bem, a VMware vai fazer uma grande exposição acerca dos lançamentos do vSphere 5, SRM 5, vShield 5 e vCloud Director 1.5 os quais já até foram previamente anunciados portanto não são mais novidades. Então qual será a grande história deste evento ? O que estará ainda guardado na manga da gigante da virtualização ?”

Falando com sinceridade, não sei, mas sabemos que podemos esperar qualquer coisa desta Empresa e dificilmente nos decepcionaremos.

Pois é, há muito que a VMware vem sendo extremamente criativa revolucionando o mercado de TI à cada novo produto lançado e não está sendo diferente desta vez com os lançamentos anunciados até o momento pois trazem novidades verdadeiramente significativas.

Parece mesmo que o time de engenharia desta empresa tem saído às ruas nos períodos entre cada VMworld visitando os CIOs de diversas Companhias questionando qual seria o sonho utópico de cada um deles quanto à transformação que desejariam ver o seu departamento de TI sofrer para então voltarem às suas pranchetas de desenho.

De qualquer forma, independente das potenciais novidades que poderão vir à tona na próxima semana acredito que estamos nos aproximando do estágio em que já adquirimos uma certa maturidade se não sobre o que é a Nuvem, ao menos sobre quais questões esperamos vê-la endereçar e resolver em nossos data-centers de forma que podemos fazer o exercício de tirar um pouco o foco dos detalhes técnicos de cada produto e passar a olhar estes anúncios como mais uma fase de uma grande metamorfose que irá afetar uma vez mais esta maquininha suíça cada vez mais precisa chamada TI.

Estou falando de um dos diversos fatores importantes à construção da sua nuvem de serviços que é a infraestrutura dinâmica, inteligente, auto-gerível, integrada, padronizada, elástica e eficiente (devo ainda ter me esquecido de alguns outros adjetivos :-)).

Isso mesmo, as ferramentas que compõe a infraestrutura (leia-se hardware & software) deixaram de ser criadas para endereçar apenas uma ou outra funcionalidade específica e eventualmente se integrar com outras ferramentas e passaram a focar em atender de forma ampla à uma ou mais camadas de abstração de recursos de infra.

Conseguimos sustentar a afirmação acima ao olharmos para algumas ferramentas e produtos que antes exerciam um papel único e objetivo na máquina de TI e hoje passaram a cobrir necessidades mais amplas.

Como exemplo podemos citar as ferramentas de segurança que antes focavam em funcionalidades específicas como autenticação, segurança de perímetro e Antivírus e hoje integram frames completos passando por gerenciamento, auditoria, controle de mudanças, enfim GRC completo.

Ou as categorias de equipamentos que trazem hoje funcionalidades que vão além da proposta original do produto e passam a integrar componentes de inteligência de outras camadas como por exemplo os Storages que entendem o propósito das aplicações às quais estarão servindo e além do provisionamento inteligente e direcionado à estas aplicações faz ainda o offload de determinadas funções destas camadas de forma à trazer agilidade, simplicidade e ganhos de performance significativos à experiência dos administradores e usuários de TI.

Olhando desta forma e, agora voltando aos lançamentos já conhecidos da VMware, ou mais especificamente ao “vSphere 5″ (não deixem de prestar atenção nos outros também, todos trazem seu valor), percebemos que ela embarcou de vez neste conceito e deixou de olhar para a virtualização como sendo o novo centro do universo de TI e passou a considerá-la como um componente ainda muito importante do stack porém com laços de interdependência estreitos com diversas outras camadas à fim de se tornar mais eficiente, segura e estável.

Digo, dentre as novidades do vSphere vemos características que antes pertenciam exclusivamente às camadas de Storage e gerenciamento por exemplo e agora trazem valor agregado diretamente ao Hypervisor.

Bem, certamente os sonhos utópicos dos CIOs, usuários e administradores de TI não foram ainda totalmente realizados como também não temos certeza de como vencer “todas” as etapas seguintes à fim de atingir este objetivo mas acredito estarmos um passo mais próximos e caminhando na direção correta desta vez.

Propriedades da Computação em Nuvem


Ainda ontem em uma reunião em casa entre amigos, sabendo do meu ramo de atuação, me foi colocada a seguinte questão:

“Marcelo, que história é essa que o Pen-Drive já é uma tecnologia obsoleta uma vez que estamos agora na era da Computação em Nuvem ?”

Claro que fiquei um pouco perplexo e quis saber mais da origem da questão antes de começar a dar qualquer explicação e dizer que uma coisa não tem “necessariamente” há ver com a outra.

Mas esta afirmação também não deixa de ser verdadeira uma vez que já existem serviços de armazenamento de dados em nuvem como o “Oxygen Cloud”, “Dropbox” e diversos outros onde é possível ter seus dados disponíveis o tempo todo em qualquer lugar “desde que esteja conectado à internet através de algum dispositivo móvel que permita ao menos a navegação aos sites destes serviços através de um browser ou tenha os aplicativos clients destes serviços instalados no dispositivo”.

E porquê estou falando disso ?

É que questões como esta não têm sido tão incomuns e também não têm aparecido somente em reuniões informais entre amigos, mas muitas vezes em reuniões e eventos com clientes, parceiros e fornecedores ou seja, até mesmo entre profissionais da área pode ainda eventualmente existir uma certa confusão à respeito das Nuvens de Computação, o que são elas e o que têm à oferecer.

Por isso mesmo vou tentar colocar aqui uma visão um pouco organizada à respeito deste tópico (é meus amigos, eu disse mesmo “tentar” pois devo também ter meus “pontos cegos” sobre a questão e, se for o caso, fica aí o debate para trocarmos nossas informações e desinformações à este respeito :-) ).

Então, o quê, finalmente vem a ser uma Nuvem Computacional ?

O conceito de Nuvem agrega diversas propriedades, requerimentos e funcionalidades que podem ou não ser adotados em determinado projeto dependendo das necessidades a serem satisfeitas.

Vamos começar então com uma visão bem básica e extremamente simplificada através da analogia abaixo:

“Os serviços de nuvem estão para seus usuários assim como os serviços de luz, telefonia, água, TV à cabo estão para a sociedade”

Ou seja, em primeira análise os serviços em nuvem precisam ser oferecidos aos seus usuários no formato “on-demand” independente das complexidades existentes por trás da solução oferecida.

E quais são estes “serviços on-demand” ?

Estamos falando dos tais serviços emergentes “Everything-as-a-Service” que vêm ganhando cada vez mais espaço nas empresas.

Os serviços desta natureza mais conhecidos são o IaaS (Infrastructure-as-a-Service), o PaaS (Platform-as-a-Service) e o SaaS (Software-as-a-Service) porém já começaram à apontar diversos outros serviços no mercado como o “Storage-as-a-Service” (lembra da questão sobre o Pen-Drive no início deste post?), “DB-as-a-Service”, “Governance-as-a-Service”, “Information-as-a-Service”, “Integration-as-a-Service”, “Process-as-a-Service”, “Security-as-a-Service” e “Test-as-a-Service” e diversos outros novos modelos de serviços estão ainda por aparecer.

Cada um dos serviços acima por si só já daria um novo post, então vamos prosseguir falando sobre alguns outros não menos importantes requerimentos que temos também que levar em conta ao definirmos a nossa oferta em nuvem focando no modelo de serviço “Infrastructure-as-a-Service”.

Outro requerimento que vem a ser muito importante quando falamos em Nuvem é a “elasticidade”, ou seja, não somente a capacidade de disponibilizar os serviços “on-demand” como explicado acima, mas a de provisionar e desprovisionar os recursos corretos rapidamente no momento em que eles se fazem necessários de forma a alavancar o modelo de implementação de infraestrutura que chamamos de “Hardware-as-a-Pool”.

Quando falamos de elasticidade e hardware-as-a-pool estamos na verdade falando de “pularmos”, no momento da implementação de um novo projeto, todo o processo e tempo de aquisição de equipamentos de forma a não impactar o prazo de entrega do projeto ganhando assim uma agilidade sem precedentes e elevando o status do departamento de TI ou do provedor de serviços em nuvem ao de facilitador do processo de negócios da companhia e não mais um peso em termos de custos e tempo de entrega.

“Peraí, entendí o impacto que a elasticidade traz aos tempos de entrega dos projetos, mas o que você tá querendo dizer com redução de custos ?”

Pois é, quando trabalhamos neste modelo de entrega de serviços passamos também a demandar muito menos tempo de profissionais de algumas áreas da empresa em reuniões com fornecedores, análise de diferentes propostas técnicas e comerciais, compras efetivamente de produtos e serviços, instalação e implementação da infra……..vocês sabem do que estou falando !

Não que este processo todo de aquisição de infra deixe de existir na empresa, mas ele passa a se repetir muito menos deixando de ocorrer a cada novo projeto e passando a ser disparado apenas em dois momentos que são a obtenção inicial da infra para a nuvem e as atualizações futuras da mesma.

E esta não é a única forma de gerar economia com recursos de TI, iremos ver no decorrer desta conversa que existem ainda outros conceitos e ferramentas que irão nos ajudar à reduzir custos ao mesmo tempo em que ganhamos agilidade, eficiência, mobilidade, simplicidade e, por quê não também, segurança.

A camada que vem logo acima desta infraestrutura dinâmica e inteligente que acabamos de tratar é a Virtualização.

Na minha opinião este é o principal pilar da computação em nuvem uma vez que é o responsável por trazer diversos benefícios e alavancar diversas funcionalidades que não seriam possíveis sem as tecnologias de virtualização.

Estou falando não somente de virtualização de servidores mas também de virtualização de aplicações, storage e redes.

O primeiro benefício que vem à cabeça sempre que falamos de virtualização de servidores é a economia gerada pela consolidação dos mesmos na forma de Máquinas Virtuais a serem executadas sobre uma quantidade reduzida de servidores físicos ao realizarmos uma operação conhecida como P2V (Physical to Virtual).

Este processo tem relação direta com a redução de cabeamento de rede, portas de switch, espaço físico e consumo de energia e ar-condicionado no data-center, isso sem falar em menos contratos de manutenção de equipamentos a serem geridos e otimização de mão-de-obra especializada.

Outro benefício conquistado ao adotar o modelo de virtualização de servidores é a mobilidade online das VMs entre os hosts que compõe um Cluster dentro de um dado datacenter ou mesmo entre Cluster de hosts em datacenters diferentes e distantes entre sí mas neste caso a mobilidade se dá de forma disruptiva.

Para ambas as situações acima se faz necessário o uso de storage compartilhado entre os hosts em um mesmo datacenter e replicado para o storage no datacenter remoto.

Há também a possibilidade de implementação de mobilidade online das VMs entre hosts localizados em diferentes datacenters ao alavancarmos a tecnologia de virtualização de storage ( saiba mais em http://www.emc.com/storage/vplex/vplex.htm?CMP=int-vplex_family-GSA ).

Esta tecnologia implica em agruparmos os hosts de ambos datacenters em um único cluster (stretched-cluster) todos montando uma mesma LUN virtualizada e disponibilizada no modelo de replicação “ativo-ativo”, ou seja, cada LUN tem uma mesma identidade em ambos os sites e as escritas efetuadas em cada site são replicadas para o site remoto e vice-versa.

Existem ainda diversas outras funcionalidades e tecnologias alavancadas pela virtualização como distribuição de carga entre os hosts de um mesmo cluster, priorização de recursos (memória, CPU, storage e rede) entre as VMs, gerenciamento de memória otimizado e muitos outros que poderíamos abordar aqui porém prefiro deixar esta discussão para postagens futuras à fim de manter o foco no assunto proposto aqui que é sobre as propriedades que compõe a nuvem.

Vamos então colocar mais uma camada de tecnologia sobre a estrutura que temos abordado até o momento e vamos falar um pouco sobre ferramentas que começam a dar a cara de nuvem à nuvem.

Estas ferramentas têm a função de permitir a gerência do ambiente em nuvem através de funcionalidades como “algumas” das citadas abaixo:

- Criação de datacenters virtuais (vDCs) atrelados a níveis de serviço (ex. Platinum, Gold, Silver…) que por sua vez estão baseados em fatores como disponibilidade do ambiente, poder de processamento, rate de over-subscription de recursos físicos (memória, CPU, storage e rede), tiers de storage (SAS-NL, SAS, EFD, FAST-VP, FAST Cache, Mid-Range, High-End,…) e serviços de valor agregado (backup crash/application consistent, contingência local/remota, mobilidade controle de Governança, Risco e Conformidade “GRC” do ambiente, segurança das informações sensíveis de negócio, controle de acesso e autenticação de usuários, etc….);

- Criação de organizações a serem assinaladas à clientes da nuvem (administradores e usuários dos recursos da org) com isolação total entre as organizações no nível de gerenciamento, acesso aos recursos da Org, storage e rede (multi-tenancy);

- Criação de templates de serviços baseados em containers de máquinas virtuais executando determinadas aplicações interdependentes entre sí (vApps) os quais são atrelados aos vDCs de acordo com o nível de serviço desejado para então serem disponibilizados às organizações na forma de catálogo de serviços;

- Portal disponibilizado aos clientes da nuvem de maneira a permitir que estes possam escolher dentro de um catálogo de serviços a oferta que melhor atenderá às suas necessidades de projeto;

- Ferramenta para controle de requisições de serviços e fluxo de aprovação automatizado;

- Gerência de capacidade à fim de identificar/prevenir/simular o esgotamento de recursos disponibilizados à infraestrutura virtual e facilitar o planejamento proativo dos ciclos de aquisição de hardware;

- Emissão de relatórios de utilização dos recursos (Chargeback/Showback) assinalados às máquinas virtuais atrelados à modelos de custos flexíveis à fim de atender clientes com necessidades diferentes;

Uma vez definida a camada de gerenciamento da nuvem, resta avaliar a existência ou não da necessidade de customizações de processos e integração da nuvem com ferramentas de controle existentes como por exemplo integração com ferramentas de service-desk para atualização do CMDB para fins de conformidade com ITIL.

Para este fim existem ainda uma infinidade de ferramentas que ajudam na implantação destas soluções de customização as quais devem ser posicionadas de acordo com a necessidade específica de cada projeto.

O assunto em questão é imenso e pede uma abordagem igualmente profunda, no entanto espero com este artigo ter contribuído para um melhor entendimento do que vem a ser uma nuvem de computação e os atributos que podem acompanhá-la de acordo com o foco e as necessidades do projeto.

Porquê Vblock ?


Muitos dos que fazem parte deste mundo veloz e fascinante da Informática já devem, recentemente, ter ouvido algo à respeito do Vblock.

Seja sobre as diversas características que o definem como único no mercado, as facilidades de aquisição, instalação, expansão e suporte unificado junto à VCE, o poder do UIM (Unified Infrastructure Management) ao efetuar o provisionamento das blades, network e Storage no modelo “Hardware-as-a-pool”, gerência, monitoração e compliance de diversos Vblocks em uma única console ou sobre como se dá sua integração à infra já existente.

As mais diversas afirmações têm sido ditas e publicadas à respeito deste produto como também diversas opiniões têm sido formadas, tanto à favor como contra a sua adoção em seus ambientes computacionais de produção.

E muitas vezes tanto as opiniões favoráveis como as desfavoráveis estão corretas, pois seria muita pretensão dizer que o Vblock se encaixa para todas as necessidades.

A questão é que temos visto algumas situações onde o Vblock é considerado como não sendo a melhor solução para atender aos requisitos do cliente quando, em realidade, ele se encaixaria perfeitamente.

Nestes casos, na maioria das vezes o fator determinante para a desqualificação do Vblock tem sido puramente preço de aquisição do produto.

Isso mesmo, tenho visto algumas situações onde, durante apresentação do produto por um vendedor da VCE em conjunto com um vSpecialist da EMC, o cliente identifica ganhos e melhorias em sua operação porém mais tarde quando a discussão avança para uma proposta de preço daí os ânimos se esfriam vertiginosamente.

Acreditamos que esta comparação de preços é que tem sido feita de forma não muito acurada.

Exatamente o mesmo Vblock, se vendido em partes separadas teria o mesmo preço que se vendido como Vblock pois tanto o UCS da Cisco como o VNX ou VMAX da EMC e as licenças VMware não sofrem acréscimo algum de preço por fazerem parte de um Vblock.

Então porquê o Vblock é mais caro quando comparado com outras soluções disponíveis no mercado ?

Devemos quebrar a resposta em algumas partes para melhor entendimento.

1. Primeiramente, o Vblock não tem similar no mercado.

Isso mesmo, existem soluções que quando compostas agregando produtos de diversos fabricantes desenhados para determinados propósitos podem ficar bem parecidos com o Vblock porém não são soluções realmente integradas como é o Vblock pois cada um dos produtos agregados à estas soluções tem suas engenharias totalmente independentes com propósitos diferentes e até mesmo focos em necessidades muito específicas do mercado.

Isto traz algumas implicações importantes e que devem também ser consideradas no momento da aquisição da solução.

Dentre várias, algumas merecem atenção especial e por isso são citadas abaixo:

- Cada vez que um dos produtos que compõe a solução sofrer atualização toda a solução deverá ser revalidada.

- Não existem garantias de que as versões futuras de cada um dos produtos irão continuar suportando os outros componentes da solução.

- Os problemas da solução serão tratados de forma totalmente independente e pontual pelas engenharias de cada empresa de forma que o solucionamento de problemas pode ser muitas vezes paleativo e não permanente e de forma integrada à toda a solução.

- No momento de expandir a solução, mesmo que com versões já previamente adotadas, a solução deverá ser revalidada para entendimento se esta irá continuar atendendo ao SLA previamente acordado em termos de performance e disponibilidade.

- Ainda falando sobre expansão, a implementação de cada componente da solução teria tempos de entrega independentes e seria realizado por equipes técnicas diferentes de forma que os prazos requeridos pelas áreas de negócios clientes da solução poderiam ser afetados negativamente.

2. O modelo de aquisição, implementação e suporte unificados não são apenas termos bonitos dentro de uma campanha de marketing de produto com tempo de validade definido, mas fatores determinantes quando deixamos de falar apenas em facilidades para os administradores de TI e passamos o foco à agilidade dos negócios da empresa de maneira a torná-la mais competitiva no mercado ao mesmo tempo em que TI deixa de ser visto como um peso para a empresa e conquista o status de àrea de negócios ajudando a aumentar a produtividade da companhia e, consequentemente, gerar lucros.

3. Levando em conta melhores práticas de mercado, o Vblock implementa também o conceito de AMP (Advanced Management Pod) à fim de separar os workloads de gerenciamento da infraestrutura de TI com os workloads de aplicações de produção.

Este componente é composto por 1 (Mini AMP) ou 2 (AMP) Cisco UCS 200 M1 Server, 1 Cisco 2921 Integrated Services Router e 1 Cisco 4948 Switch e nele vão instalados todos os componentes de gerência do produto sobre o ESXi, como o VMware vCenter, EMC Unisphere Manager, EMC UIM, EMC Powerpath RTools, VMware View ( se destinado à desktops virtuais ) entre outros.

Em resumo, ao comparar o preço do Vblock com qualquer outra solução composta no mercado, para que a comparação seja justa, devemos nos lembrar sempre de trazer a solução concorrente o mais próximo possível ao Vblock, ou seja, devemos incluir na conta:

- Todos os softwares que acompanham o Vblock ou semelhantes;
– Um componente semelhante ao AMP ou no mínimo ao mini AMP;
– Os benefícios em termos de facilidade e tempo de aquisição, entrega, implementação, suporte e expansão unificados;
– Benefícios em termos de provisionamento e gerenciamento unificado da solução;
– Escalabilidade da solução;
– Possibilidade de trabalhar com “todo” o hardware disponibilizado na solução como “hardware-as-a-pool” de forma unificada e com possibilidade de “repurposing” do hardware de forma simplificada;

Estas considerações certamente causariam um certo impacto na comparação entre as soluções, porém ganham ainda mais força se tiramos o foco dos produtos sendo comparados e miramos em benefícios conquistados pelo cliente ao adotar uma solução em comparação com a outra.