Inteligência Artificial aumenta a disponibilidade do data center

Faculdade de Educação Tecnológica do Estado do Rio de Janeiro

Inteligência Artificial aumenta a disponibilidade do data center

O Machine Learning fornece aos operadores do data center um melhor controle sobre resfriamento, potência e desempenho

Por: Ann Bednarz

A Inteligência Artificial está preparada para desempenhar um papel maior nas operações de data center, à medida que as empresas começam a adotar tecnologias de Machine Learning testadas por operadores de data center maiores e provedores de colocation.

Os ambientes de computação híbrida de hoje geralmente ocupam data centers on-premise, na nuvem, serviços de colocation e Edge Computing. E as empresas estão descobrindo que uma abordagem tradicional para gerenciar data center já não é ideal. Usando a Inteligência Artificial há um enorme potencial para simplificar o gerenciamento de instalações de computação complexas.

A IA no data center, por enquanto, gira em torno do uso de Machine Learning para monitorar e automatizar o gerenciamento de componentes de instalações, como energia e elementos de distribuição de energia, infraestrutura de resfriamento, sistemas de rack e segurança física.

Dentro das instalações do data center há um número crescente de sensores que coletam dados de dispositivos, incluindo UPS (back-up de energia), unidades de distribuição de energia, painéis de manobra e resfriadores. Os dados sobre esses dispositivos e seu ambiente são analisados ​​por algoritmos de aprendizado de máquina, que selecionam insights sobre desempenho e capacidade, por exemplo, e determinam respostas apropriadas, como alterar uma configuração ou enviar um alerta. À medida que as condições mudam, o sistema de Machine Learning aprende com as mudanças – é essencialmente treinado para se ajustar em vez de confiar em instruções de programação específicas para executar suas tarefas.

O objetivo é permitir que os operadores de data center aumentem a confiabilidade e a eficiência das instalações e, potencialmente, executem-nas de maneira mais autônoma. No entanto, obter os dados não é uma tarefa trivial.

Um requisito fundamental é a coleta de dados em tempo real dos principais componentes, diz Steve Carlini, diretor sênior de soluções globais de data center da Schneider Electric. Isso significa chillers, torres de resfriamento, manipuladores de ar, ventiladores e muito mais. No lado dos equipamentos de TI, isso significa métricas como taxa de utilização do servidor, temperatura e consumo de energia.

“Medir um data center não é uma coisa fácil”, diz Carlini. “Há muitos pontos de conexão para energia e resfriamento em data centers dos quais você precisa para obter dados, caso queira tentarusar IA.”

Os profissionais de TI estão acostumados com o monitoramento de dispositivos e alertas em tempo real, mas esse não é o caso no lado das instalações on-premise. “A expectativa de notificação em equipamentos de TI é imediata. Em seus sistemas de energia, isso não é imediato ”, diz Carlini. “É um mundo diferente”.

Foi somente na última década que os primeiros data centers foram totalmente instrumentados, com medidores para monitorar a energia e o resfriamento. E onde a medição existe, a padronização é elusiva: operadores de data centers confiam em sistemas de gerenciamento de edifícios que utilizam múltiplos protocolos de comunicação – do Modbus e BACnet ao LONworks e Niagara – e tiveram que se contentar com dispositivos que não compartilham dados ou podem ser operados via controle remoto. “Conexões TCP/IP e Ethernet eram inéditas no lado do powertrain e do lado do resfriamento”, diz Carlini.

A boa notícia é que o monitoramento do data center está avançando em direção à profundidade necessária para análise avançada e Machine Learning. “Os provedores de serviços e provedores de colocation sempre foram muito bons em monitorar o uso de energia. As empresas estão começando a implantá-lo, dependendo do tamanho do data center ”, diz Carlini.

O Machine Learning mantém os data centers legais
Uma interrupção no data center da Delta Airlines, atribuída à falha do sistema elétrico, causou a parada de cerca de 2 mil voos em um período de três dias em 2016 e custou à companhia aérea US$ 150 milhões. Esse é exatamente o tipo de cenário que a automação baseada em Machine Learning poderia evitar. Graças aos avanços na medição de data center e ao advento de pools de dados na nuvem, os sistemas inteligentes têm o potencial de identificar vulnerabilidades e impulsionar eficiências nas operações do data center de maneiras que processos manuais não conseguem.

Um exemplo simples de inteligência conduzida por Machine Learning é a manutenção baseada em condições que é aplicada a itens consumíveis em um data center, por exemplo, filtros de resfriamento. Ao monitorar o fluxo de ar através de vários filtros, um sistema inteligente pode detectar se alguns dos filtros estão mais obstruídos do que outros, e direcionar o ar para as unidades menos obstruídas até que seja hora de mudar todos os filtros, diz Carlini.

Outro exemplo é o monitoramento da temperatura e descarga das baterias nos sistemas UPS. Um sistema inteligente pode identificar um sistema UPS que está sendo executado em um ambiente mais quente e que poderia estar sendo descarregado com mais frequência do que outros e, em seguida, designá-lo como um no-break de backup em vez de um primário. “Isso é algo que pode ser feito manualmente, mas as máquinas também podem fazê-lo. Essa é a coisa básica”, diz Carlini.

Com a otimização dinâmica do resfriamento, os gerentes de data center podem monitorar e controlar a infraestrutura de resfriamento de uma instalação com base nas condições ambientais. Quando o equipamento é movido ou é computado o pico de tráfego, as cargas de calor no prédio também podem mudar. Ajustar dinamicamente a saída de resfriamento para alterar as cargas de calor pode ajudar a eliminar a capacidade de resfriamento desnecessária e reduzir os custos operacionais.

Os provedores de colocation são grandes usuários da otimização dinâmica do resfriamento, diz Rhonda Ascierto, diretor de pesquisa de tecnologias de data center eco-eficientes da 451 Research. “O Machine Learning não é novo no data center”, diz Ascierto. “As pessoas há muito tempo tentam melhorar o tamanho ideal do resfriamento com base na capacidade e demanda, e o aprendizado de máquina permite que você faça isso em tempo real.”

A Vigilent é líder em otimização de resfriamento. Sua tecnologia trabalha para otimizar o fluxo de ar em uma instalação de data center, encontrando e eliminando automaticamente pontos de acesso. As operadoras de data center tendem a operar muito mais equipamentos de resfriamento do que precisam, diz Cliff Federspiel, fundador, presidente e CTO da empresa. “Geralmente produzem uma distribuição de temperatura semi aceitável, mas a um custo realmente alto”.

Se houver um ponto quente, a reação típica é adicionar mais capacidade de resfriamento. Na realidade, uma maior velocidade do ar pode produzir diferenças de pressão, interferindo no fluxo de ar através do equipamento ou impedindo o retorno do ar quente de volta ao equipamento de resfriamento. Mesmo que seja contra-intuitivo, pode ser mais eficaz diminuir a velocidade dos ventiladores, por exemplo.

A tecnologia baseada em Machine Learning da Vigilent aprende quais configurações de fluxo de ar otimizam o ambiente térmico de cada cliente. Fornecer a quantidade certa de resfriamento, exatamente onde é necessário, normalmente resulta em uma redução de até 40% nas contas de energia de resfriamento, diz a empresa.

Além de automatizar sistemas de refrigeração, o software da Vigilent também fornece análises que os clientes estão usando para tomar decisões operacionais sobre suas instalações.

“Nossos clientes estão cada vez mais interessados ​​em usar esses dados para ajudar a gerenciar seus gastos de capital, seu planejamento de capacidade, seus programas de confiabilidade”, diz Federspiel. “Isso está criando oportunidades para muitos novos tipos de tomada de decisão baseadas de dados no data center.”

A IA torna os processos existentes melhores
Olhando para o futuro, os operadores de datacenter estão trabalhando para estender o sucesso da otimização de resfriamento dinâmico para outras áreas. De um modo geral, as áreas que estão maduras para o Machine Learning ​​são processos familiares que exigem tarefas repetitivas.

“Novas abordagens baseadas em aprendizado de máquina para data centers provavelmente serão aplicadas a processos de negócios existentes, porque o Machine Learning funciona melhor quando você entende o problema de negócios e as regras completamente”, diz Ascierto.

As empresas possuem ferramentas de monitoramento existentes, é claro. Há uma categoria de longa data de software de gerenciamento de infraestrutura de data center (DCIM) que pode fornecer visibilidade dos ativos, interdependências, desempenho e capacidade do data center. O software DCIM aborda funções incluindo monitoramento de equipamentos remotos, monitoração de energia e ambiental, gerenciamento de ativos de TI, gerenciamento de dados e relatórios. As empresas usam o software DCIM para simplificar o planejamento da capacidade e a alocação de recursos, bem como garantir que a energia, o equipamento e o espaço físico sejam usados ​​da forma mais eficiente possível.

“Se você tem um monitoramento básico e gerenciamento de ativos, sua capacidade de prever a capacidade é amplamente melhorada”, diz Ascierto. “As pessoas estão fazendo isso hoje, usando seus próprios dados.”

O próximo passo? Adicionar dados externos ao mix DCIM. É aí que o aprendizado de máquina desempenha um papel fundamental.

O gerenciamento de data center como serviço, ou DMaaS, é um serviço baseado em software DCIM. Mas não é simplesmente uma versão do software DCIM entregue em SaaS. O DMaaS leva a coleta de dados um passo adiante, agregando dados de equipamentos e dispositivos de dezenas de data centers. Esses dados são então anonimizados, agrupados e analisados ​​em escala usando Machine Learning.

Dois dos primeiros participantes no mercado de DMaaS são a Schneider Electric e a Eaton. Ambos extraíram uma enorme quantidade de dados de seus anos de experiência no mundo do data center, o que inclui projetar e construir data centers, gerenciamento de edifícios, distribuição elétrica e serviços de energia e refrigeração.

“A grande e significativa mudança que a Schneider e a Eaton estão fazendo é ter um data lake com muitos dados de clientes. Isso é realmente muito interessante para o setor de data center”, diz Ascierto.

O acesso a esses dados, colhidos de uma ampla gama de clientes com uma ampla gama de ambientes operacionais, permite uma empresa compare seu próprio desempenho de data center com benchmarks globais. Por exemplo, a oferta de DMaaS da Schneider, chamada EcoStruxure IT, está ligada a um data lake contendo dados de benchmarking de mais de 500 clientes e 2,2 milhões de sensores.

“Você não apenas consegue entender e resolver esses problemas usando seus próprios dados, como também pode usar dados de milhares de outras instalações, incluindo muitas que são muito semelhantes às suas. Essa é a grande diferença”, diz Ascierto.

A manutenção preditiva e preventiva, por exemplo, se beneficia de uma inteligência mais profunda. “Com base em outras máquinas, operando em ambientes semelhantes com níveis de utilização semelhantes, idade semelhante, componentes semelhantes, a IA prevê que algo vai dar errado”, diz Ascierto.

O planejamento de cenário é outro processo que receberá um impulso do Machine Learning. As empresas fazem o planejamento de cenário hoje, estimando o impacto de um movimento de equipamento no consumo de energia, por exemplo. “Isso está disponível sem Machine Learning, é verdade”, diz Ascierto. “Mas a capacidade de determinar o resultado de uma configuração ou projeto particular é muito, muito maior com a possibilidade de aplicar dados de Machine Learning e dados históricos de configurações específicas e projetos diferentes”.

A análise de risco e o planejamento de mitigação de riscos também podem se beneficiar de análises mais aprofundadas. “Os data centers são tão complexos e a escala é tão vasta hoje, que é realmente difícil para os seres humanos captar padrões, mas é bastante trivial para as máquinas”, diz Ascierto.

No futuro, a aplicação generalizada do Machine Learning no data center proporcionará às empresas mais insights à medida que tomam decisões sobre onde executar determinadas cargas de trabalho. “Isso é tremendamente valioso para as organizações, especialmente se elas estão tomando decisões em torno do melhor local de execução”, diz Ascierto. “Esse aplicativo deve ser executado nesse data center? Ou devemos usar um data center de colocation? ”

Olhando mais para o futuro, os sistemas inteligentes podem assumir tarefas ainda mais sofisticadas, permitindo que os data centers ajustem dinamicamente as cargas de trabalho com base em onde eles serão executados de forma mais eficiente ou mais confiável. “IA sofisticada ainda está um pouco fora do radar”, diz Carlini.

Enquanto isso, para empresas que estão apenas começando, ele enfatiza a importância de obter instalações e equipes de TI para colaborar mais.

“É muito importante que você considere todos os domínios do data center – a energia, o resfriamento e a sala de TI”, diz Carlini. A indústria está trabalhando duro para garantir a interoperabilidade entre as tecnologias dos diferentes domínios. As empresas precisam fazer o mesmo na frente da equipe.

“Tecnicamente está ficando mais fácil, mas do ponto de vista organizacional ainda existem silos”, diz ele.

Fonte: CIO

Texto original:
http://cio.com.br/tecnologia/2018/05/24/inteligencia-artificial-aumenta-a-disponibilidade-do-data-center/