Notícias e Eventos Blue Solutions

Atualizações sobre produtos, Informações Técnicas, Dicas para Ambientes de TI, Virtualização, NOC, Operações de TI, Serviços de Segurança, Serviços Gerenciados, Recuperação de Desastres, Continuidade de Negócios e notícias da Blue Solutions.

Os 5 erros nos projetos de Backup de Dados

Um comentário

Ser um gestor de TI não é fácil, por um lado os requisitos de negócio precisam de cada vez mais recursos, como poder de processamento, espaço em armazenamento e novos aplicativos, por outro lado as ofertas de nuvem trazem aplicativos obscuros ao controle da TI, mas amado pelos usuários e o orçamento continua o mesmo dos anos anteriores.

É comum encontrarmos projetos de Backup que não contemplam todos os requisitos de negócio, focados somente na tecnologia, ou tão restritos pelo orçamento que colocam a TI em posição de cheque-mate quando acontece um desastre.

Fizemos aqui um levantamento com os principais erros cometidos nos projetos de backup e orientações de como evitá-los:

1 - A TI tomar as decisões de negócio

Indecision  Muitas vezes, por falta de apoio ou comunicação com a direção, a TI acaba tomando as decisões sobre o projeto de backup: quanto tempo armazenar, qual a frequência a ser realizada, quais pastas incluir, quais tipos de arquivos, mas nesse ponto a TI se esquece que ela é apenas um depositário das informações, e os verdadeiros donos das informações, ou seja, gerentes e diretores das áreas de negócio, é que devem ditar os requisitos (e preferencialmente assumir os custos também)

  O gestor de TI deve, nesse quesito, sentar com os principais gestores e, juntos, assumirem o compromisso sobre quais dados são críticos, quais as proteções existentes (incluindo outras não relacionadas a backup, como Redundância de peças, Servidores Standby e Clusters) e custos envolvidos, para chegar em um projeto final apoiado pelas demais áreas de negócio.

2 - Nivelar as rotinas e infraestrutura pelo sistema mais crítico

  Decisão muitas vezes tomada pelos técnicos na falta de orientação adequada, todos os sistemas são colocados em um único Job, que tem um único agendamento e uma única regra de retenção. Isso faz com que sistemas menos importantes entrem nas mesmas rotinas que sistemas importantes, aumentando a janela de backup, o consumo de fitas e consequentemente os custos da solução.

  Nesse ponto, o planejamento junto com as áreas de negócio citado na questão anterior é importante, pode-se definir que um sistema XYZ que gera muitos dados precise dos dados íntegros, mas não precise recuperar um arquivo de meses atrás, ou seja, a retenção não precisa ser tão grande, isso pode fazer toda a diferença no dimensionamento da solução e nos custos.

3 - Desconsiderar o ritmo de crescimento de dados

Business Growth 1  Com cada vez mais aplicativos e dispositivos, a captura de dados tem aumentado exponencialmente, a taxa de crescimento que era de X GB/mês de um sistema pode se transformar em 5x GB/mês apenas interligando-o com algum dispositivo de coleta ou implementando uma nova rotina.

  Isso impacta no consumo de discos, memória, processador e também nas rotinas de backup.

  Pode não ser possível prever o impacto de um novo aplicativo ou uma nova rotina em um sistema, contamos com a boa vontade dos desenvolvedores para isso, mas, na falta, alinhar o backup com toda nova aquisição de infraestrutura é importante.

  Sempre que pensar em comprar um servidor, disco ou storage novo, comprar também capacidade de backup equivalente.

4 - Não considerar a janela de backup e o tempo de recuperação


clock, time, second, minute, adjustment, measure, timing, hour, day, year, tic, tac, motion, speed, watch, midday,  roman, eve, deadline, midnight, ring, wake, art, rtistic, clay, closeup, coated, container, craftsman, creating, creation, forming, macro, old, vechi, gold, iron, decoration, household, beautiful, carved, jewelry, priceless,
  Isso é um erro grave na escolha da tecnologia, muitas vezes influenciada pelo vendedor da solução e negligenciada pela TI, afinal, os servidores da marca ABC são infalíveis, nunca quebram, foram consideradas redundâncias para todas as peças críticas (HD, fonte, rede e até memória redundante), então nunca vai parar o servidor... até que um erro humano apague acidentalmente os dados e precise fazer um restore.

  A prática mostra que o tempo de recuperação de um backup é normalmente duas a três vezes o tempo de execução de um backup. Isso significa que, uma fita que demorou 3 horas para gravar, pode demorar até 9 horas para restaurar. A culpa não é necessariamente do drive de fita ou do processador do servidor de backup, a descompactação normalmente é mais rápida do que a compactação, e a leitura também costuma ser mais rápida do que a escrita, mas o maior impacto normalmente está no destino do restore: um servidor de arquivos precisa redefinir todas as permissões de pastas e arquivos; um banco de dados precisa recriar todos os índices; um servidor de e-mail precisa indexar as mensagens; em resumo, a operação de restaurar um backup gera muito mais IOPS no servidor de produção.

  Mas a fita é vilã também, pois permite apenas acesso sequencial, então, para encontrar um único arquivo, uma boa quantidade de fita precisa ser rebobinada, conforme um banco de dados é lido e reindexado, o drive de fita pode parar e reiniciar várias vezes, tornando toda a rotina mais lenta ainda.

  Uma solução técnica para esse problema é fazer o backup em duas etapas, a primeira para um conjunto de discos de alta capacidade, e depois para fita, isso é chamado de D2D2T. Os discos não precisam ser necessariamente rápidos, pode-se usar discos de 7,2k RPMs de alta capacidade, montados com um RAID 5. Em casos extremos usa-se um Storage de baixo custo para agregar os discos.

  Passando o primeiro nível de backup para disco, passa-se a ter janelas de backup bem menores, com isso pode-se optar por ter backups mais frequentes, até várias vezes ao dia. O fator limitante normalmente passa a ser a capacidade de leitura do servidor de origem ou a rede.

  A principal vantagem passa a ser na recuperação de dados pontuais, por exemplo, um arquivo passa a ser recuperável em poucos segundos, pois o acesso dos HDs é sob demanda e não sequencial como era na fita.

  Depois, no segundo nível enviar para a fita ou para a nuvem, para armazenamento externo, essa tarefa pode demorar várias horas, ou até mesmo mais do que um dia, já que não influencia no backup realizado nem na capacidade de restauração, serve apenas como mais um ponto de recuperação.

5 - Usar uma ferramenta incompleta ou inadequada


Hammer  É comum um fabricante de hardware ter uma ferramenta de backup própria e essa ser ofertada junto com o projeto de reestruturação do datacenter. Pode acontecer da ferramenta não estar atualizada, ser complexa demais para operar, ou incompleta para as tecnologias que estão sendo adotadas. Também tem os casos onde, por limitação de orçamento, alguns agentes são deixados de lado, ou então a ferramenta de backup é usada para funções que não são sua função principal, como imagens de estações, ou funções de CDP (Continuous Data Protection).

  Nesse ponto é importante ter os requisitos bem restritos sobre o que a ferramenta de backup deve fazer, como ela deve interagir com os sistemas existentes e quais os benefícios para o negócio que os recursos trarão, só assim é possível aprovar uma ferramenta adequada com todas as funcionalidades importantes.

  Também não se deve fechar os olhos para uma solução caso não tenha uma funcionalidade específica que a outra solução tem, às vezes uma funcionalidade é implementada de forma simplória apenas para diferenciar dos concorrentes, quando existem ferramentas muito melhores no mercado.

  Com a abordagem D2D2T normalmente isso se torna menos relevante, pois várias soluções podem conviver juntas na primeira fase do backup (disco para disco), e apenas uma solução precisa fazer a segunda fase (disco para fita), nas soluções D2T (disco para fita direto) realmente fica mais limitado, pois somente uma das ferramentas poderá ter acesso ao drive de fita, limitando as opções.

Conclusão

Existem mais variáveis do que parece a princípio em um projeto de Backup, mas seguir boas práticas, experiência de mercado, e, principalmente, envolver os decisores do negócio é fundamental para um projeto de sucesso.

Para entender tecnicamente alguns dos pontos abordados, sugiro assistir esse vídeo, onde trato dos aspectos técnicos de um backup, como RPO, RTO, SLA, D2D2T, entre outros desafios.

Ps. disponibilizei alguns vídeos de como reverter esses problemas no site PlanoDeBackup.com,br

Plano de Backup
 

Um comentário :

Postar um comentário

Novidades VMware PEX 2014

Nenhum comentário
O VMware Partner Exchange 2014 (VMware PEX) não anunciou nenhuma nova tecnologia, mas definiu com certeza qual a visão da VMware sobre o futuro da tecnologia e sua estratégia para chegar lá.

A VMware considera o SDDC (Software-Defined Data Center) uma realidade, não só mais uma buzz-word (que já foi adotada até pelos concorrentes), com ofertas da própria VMware de virtualização de Storage (VSAN) e virtualização de redes (NSX), já sendo possível automatizar muitas das tarefas corriqueiras do Datacenter.

Com o VSAN por exemplo, é possível utilizar os discos de servidores comuns para criar um armazenamento compartilhado, escalando em performance e capacidade até 16 servidores.

Com esse desafio já vencido, o próximo passo é o SDE (Software-Defined Enterprise), onde os processos de negócio podem ser modelados para atender as expectativas dos clientes e exigências do mercado da mesma forma que a virtualização atende atualmente.

Também foi anunciada uma parceria com a Google, no qual os Chromebooks podem ser usados para conexão com o VMware View, se tornando poderosas estações de trabalho com acesso a Desktops Windows completos.

É uma visão nova, que promete trazer agilidade aos negócios e redução de custos.



Rajen Sheth, diretor de produto do Google Chrome, explica nesse post em seu Blog  como Desktop-as-a-Service nos Chromebooks pode não apenas servir de ponte entre velhas e novas tecnologias, mas eventualmente substituí-las.

Nenhum comentário :

Postar um comentário

Nenhum comentário

VMware Certified Advanced Professional - Desktop Design (VCAP-DTD)   


     Uma das regras principais que regem a Blue Solutions é a busca constante por novas tecnologias, aprimoramento de nossas habilidades e a oportunidade de oferecer a nossos clientes um serviço completo que supra suas necessidades e otimize seus recursos.

     Nesse caminho temos o imenso orgulho de comunica mais um grande marco: nosso Diretor de Tecnologia, Fernando Ulisses dos Santos, finalizou com sucesso a certificação VMware Certified Advanced Professional – Desktop Design ou VCAP-DTD.

     A prova realizada em fevereiro de 2014 em São Francisco – USA, valida nossa capacidade de projetar, planejar e otimizar soluções de virtualização de desktop com VMWare View, sinalizando uma forte compreensão das metodologias e princípios de design da virtualização, seus componentes e sua relação com o datacenter.

     Direcionada à profissionais que necessitem traduzir requisitos de negócio em projetos técnicos baseados em ambientes gerenciáveis, seguros e robustos de virtualização de desktop, a certificação VCAP-DTD coloca a Blue Solutions em posição privilegiada neste mercado ainda bastante restrito e escasso de profissionais certificados.

     O parabéns de toda equipe Blue Solutions ao nosso Diretor Fernando Ulisses dos Santos, que pessoalmente mantém a difícil missão de trazer know-how e novas tecnologias para o Brasil.


            

Nenhum comentário :

Postar um comentário

Microsoft anuncia novo CEO

Nenhum comentário

Satya Nadella, novo CEO da Microsoft


     Cinco meses depois de Steve Ballmer anunciar que se aposentaria, a Microsoft finalmente oficializou nesta terça-feira a contratação de seu novo CEO. O indiano Satya Nadella, com 22 anos de casa e até então responsável pela área da computação na nuvem, assume o comando da empresa daqui em diante.
      O processo de seleção contou com a participação direta de Bill Gates e reuniu nomes de peso. Internamente, o CEO do Skype, Tony Bates, e o ex-líder da Nokia, Stephen Elop, também eram cotados para a sucessão.
      Nadella fez prevalecer sua forte influência na companhia. Ele é o líder do setor de cloud computing da Microsoft e da área de produtos corporativos, que vêm registrando resultados satisfatórios nos últimos tempos. Assim, ele é especialista em uma das áreas mais importantes.
      Antes da reorganização recente da Microsoft, o executivo era encarregado da área de servidores e ferramentas, mas também acumulou passagens pelos departamentos de pesquisa e desenvolvimento para serviços online e já foi vice-presidente de produtos corporativos. A experiência múltipla lhe rendeu bom conhecimento sobre a empresa que irá liderar.
      Analistas sugerem que a escolha do indiano para o cargo pode representar o fim da linha para Bill Gates como presidente do quadro de diretores da companhia, cargo que ocupa desde que deixou de participar do cotidiano da empresa em 2008.
      A saída de Gates pode fazer sentido, já que o novo chefão da Microsoft terá de responder a seus dois predecessores, contando com Steve Ballmer, que também é um dos membros do quadro de diretores, o que nem todos estão dispostos a aceitar. Além disso, Bill Gates vem se preparando há anos para deixar de ser um nome relevante para a Microsoft, vendendo gradualmente suas ações, e se preocupando mais com a Bill & Melinda Foundation, sua instituição beneficente sem fins lucrativos.

Página de Referência: http://olhardigital.uol.com.br.

Nenhum comentário :

Postar um comentário