Minha amiga jornalista Deborah Oliveira publicou no ITFORUM365 um relato muito interessante sobre
uma experiência que desfrutamos juntos. Visitamos alguns dos laboratórios da
DellEMC e isso nos impactou de algumas formas. Seu relato “Pordentro dos laboratórios da Dell Technologies, na sede da empresa, em Austin(EUA)” é bem detalhado e conta esta história de uma forma muito
interessante.
Mas vou aprofundar um dos temas, pois já estive bem próximo do assunto, aparentemente exótico, que trata de resfriamento dos computadores, servidores, estações de trabalho, etc. Minha vivência vem da época que eu era um praticante de uma “arte” chamada overclocking. Basicamente trata-se de usar computadores acimas dos limites para os quais eles foram desenhados. Um sistema computacional, seja o microprocessador, a placa mãe ou a memória precisam trabalhar dentro de parâmetros de temperatura para que sejam eficazes e confiáveis. Ainda hoje os “gamers” seguem forçando seus computadores acima dos limites e por isso mesmo o assunto refrigeração é importante e, isso eu não sabia, nos datacenters também.
Claro que os servidores das empresas não são forçados a trabalhar acima das especificações (como fazem os “gamers”). Então de onde nasce esta necessidade? Para mim foi uma surpresa ver este projeto da Dell porque há dez anos os processadores dos servidores corporativos tinham um nível de consumo de energia e dissipação de calor incrivelmente maiores! As seguidas evoluções dos processadores trouxeram o consumo de 200 watts para cerca de 60 a 70 watts hoje em dia, com poder de processamento muitas vezes superior (A Lei de Moore trabalhando a favor dessa evolução). Então o que torna necessário este desenvolvimento da Dell? Atualmente os sistemas são bastante compactos e isso causa um aumento considerável da densidade dos equipamentos nos datacenters. Mais servidores em um espaço restrito, o problema da eliminação do calor reaparece de forma considerável.
Mas vou aprofundar um dos temas, pois já estive bem próximo do assunto, aparentemente exótico, que trata de resfriamento dos computadores, servidores, estações de trabalho, etc. Minha vivência vem da época que eu era um praticante de uma “arte” chamada overclocking. Basicamente trata-se de usar computadores acimas dos limites para os quais eles foram desenhados. Um sistema computacional, seja o microprocessador, a placa mãe ou a memória precisam trabalhar dentro de parâmetros de temperatura para que sejam eficazes e confiáveis. Ainda hoje os “gamers” seguem forçando seus computadores acima dos limites e por isso mesmo o assunto refrigeração é importante e, isso eu não sabia, nos datacenters também.
Claro que os servidores das empresas não são forçados a trabalhar acima das especificações (como fazem os “gamers”). Então de onde nasce esta necessidade? Para mim foi uma surpresa ver este projeto da Dell porque há dez anos os processadores dos servidores corporativos tinham um nível de consumo de energia e dissipação de calor incrivelmente maiores! As seguidas evoluções dos processadores trouxeram o consumo de 200 watts para cerca de 60 a 70 watts hoje em dia, com poder de processamento muitas vezes superior (A Lei de Moore trabalhando a favor dessa evolução). Então o que torna necessário este desenvolvimento da Dell? Atualmente os sistemas são bastante compactos e isso causa um aumento considerável da densidade dos equipamentos nos datacenters. Mais servidores em um espaço restrito, o problema da eliminação do calor reaparece de forma considerável.
Nos meus tempos de “overclocker” a primeira tentativa era usar dissipadores e ventoinhas mais poderosas. Até mesmo colocar um grande ventilador apontado para o computador aberto era feito, algo inviável no contexto dos servidores. Também naquela época havia soluções baseadas em fluxo de água pelos dissipadores de calor do processador. Apenas para refrescar a memória (sem trocadilhos com o assunto), o poder de refrigeração é diretamente proporcional ao tempo de contato entre dois elementos com temperaturas distintas, à superfície de contato e principalmente à diferença de temperatura entre eles. Por isso os gamers usam ainda hoje sistemas baseados em gelo seco (-55 C) e até nitrogênio líquido (-192 C)!
Mas no ambiente da empresa e seu datacenter isso não é possível, seja pelo custo e pela complexidade desta instalação (centenas de servidores). Dentro do datacenter, tradicionalmente o ar ambiente é refrigerado, por meio de poderosos sistemas de ar condicionado. Estes são dispendiosos. Um grau de temperatura abaixo do necessário (refrigerar a mais) pode ter um custo de muitas dezenas de milhares de reais ao longo de um ano. Por isso que nesta escala a temperatura dos servidores em um datacenter é tão importante. Tanto tecnicamente como financeiramente!
Segundo os pesquisadores da Dell, ao utilizarem dutos com líquido refrigerante (preferencialmente água por ser muita barata) aplicados nos pontos específicos e mais sensíveis dos servidores, isso é muito mais eficiente do que refrigerar o ar de forma intensa, em todo ambiente (muito mais caro). Mas há desafios tecnológicos no uso da água no contexto do datacenter. Sendo um fluxo contínuo, esta tem sua temperatura elevada conforme vai passando entre os diferentes processadores dos vários servidores (ou de um mesmo servidor multi-processado). Por isso o sistema deve ter inteligência de distribuir diferentes fluxos de água com temperaturas diferentes (água já aquecida e água ainda fria) para que a manutenção da temperatura nos níveis especificados (que tornam confiáveis os processadores) aconteça da forma planejada.
Em seu texto a Deborah citou outro tipo de solução, que é a imersão dos circuitos em um fluido especializado. É assustador ver um circuito de computador totalmente submerso em algo que parece água. Por ser um fluido altamente especializado, que não conduz eletricidade, não há prejuízo algum para os circuitos. É uma solução engenhosa. Este fluido, de nome Novec, tem baixo ponto de ebulição, cerca de 49C. Assim por mais que aumente a temperatura dos circuitos, o fluido não passa de 49C. É uma propriedade dos fluidos, quando ele entra em ebulição, sua temperatura não muda até tudo se transformar em vapor (como a água). Mas a engenhosidade do método é notável.
Tudo fica circunscrito em um sistema fechado (hermeticamente). Assim quando o Novec começa a ferver, algum vapor é formado, isso eleva a pressão do invólucro, que eleva momentaneamente o ponto de ebulição, fazendo o Nuvec se liquefazer novamente... acho que você já entendeu. Isso se repete indefinidamente! Sem gastar energia, completamente “verde” e ecologicamente correto. Assim mesmo que estável a 49C, um processador que tente subir sua temperatura para 55C ou 60C, tenderá a entrar em equilíbrio com o Nuvec a 49C e assim mantém o sistema bastante estável. É muito interessante, pois a refrigeração se dá de forma “morna” e não gelada como seria esperado.
Este processo tem alguns problemas. O Novec tem preço elevado, cerca de US$ 300 por galão (um pouco menos de R$ 100 por litro) e abastecer um tanque que possa conter a placa do servidor totalmente submersa consome bastante do nobre fluido. E existe mais um problema. Se um componente precisar ser trocado, uma memória, outra placa de circuito, o tanque que contém o servidor precisa ser drenado e assim é bem mais demorado para realizar a manutenção no sistema.
Mas nada disso é obstáculo para a Dell. Seja levando o líquido para dentro dos servidores, ou mergulhando os circuitos em líquido com características especiais, seus laboratórios trabalham para aprimorar as melhores soluções. Já existem soluções derivadas dessas pesquisas que tornam servidores mais confiáveis e datacenters mais econômicos. Não é improvável que até sistemas pessoais, estações de trabalhos, além de computadores extremos (como os dos gamers) possam vir a contar com estas tecnologias todas.
Nenhum comentário:
Postar um comentário