O imperativo do liquid cooling na nova era dos data centers

Ascensão da IA e computação de alta densidade redefinem os parâmetros de infraestrutura, eficiência e retorno sobre o capital

23 de abril de 2026Mercado Imobiliário
Escrito por:Henrique Cisman

Principais Insights

  • O salto na densidade energética dos racks de 10 kW para até 100 kW torna o resfriamento a ar insuficiente e o liquid cooling obrigatório.
  • Embora o CAPEX seja entre 20% e 30% superior, a tecnologia maximiza a receita por metro quadrado e reduz drasticamente o OPEX energético.
  • A matriz energética renovável e o baixo consumo hídrico (WUE próximo a zero) posicionam o país como destino prioritário para investimentos sustentáveis em IA.

A indústria de data centers atravessa um ponto de inflexão sem precedentes, no qual a previsibilidade que marcou as últimas décadas dá lugar a uma disrupção acelerada pela nova computação. O advento da Inteligência Artificial (IA) e do High Performance Computing (HPC) força uma transição tecnológica que deixou de ser uma discussão sobre futurismo para se tornar uma necessidade operacional imediata: a adoção do liquid cooling. 

Este movimento não é apenas uma evolução incremental, mas uma resposta obrigatória ao salto exponencial na densidade energética dos racks, que migraram de uma média histórica de 5 a 10 kW para patamares que hoje oscilam entre 70 e 100 kW.

Membros de real estate e infraestrutura do GRI Institute se reúnem em São Paulo para debater o liquid cooling em data centers (Foto: GRI Institute)

O fim da era do resfriamento exclusivo a ar

A física da dissipação de calor impõe limites claros ao modelo tradicional de infraestrutura. O resfriamento a ar, embora ainda predominante e necessário para componentes periféricos, atingiu sua saturação técnica frente às novas Unidades de Processamento Gráfico (GPUs). Diferente das CPUs convencionais, as GPUs demandam uma capacidade de processamento vastamente superior, gerando calor em níveis que o ar não consegue mais remover com eficiência.

O liquid cooling, especificamente na modalidade direct-to-chip, surge como a solução técnica dominante. Ao utilizar trocadores de calor em contato direto com o chip, que é o elemento de maior emissão térmica, o sistema aproveita a capacidade térmica superior dos líquidos para absorver e transportar o calor para fora do ambiente de TI. 

O cenário projetado para os próximos anos não é de substituição total, mas de coexistência em ambientes híbridos, onde a proporção entre líquido e ar será definida pela especificidade das cargas de cada projeto.

Eficiência operacional e a nova métrica de ocupação

A transição para o resfriamento líquido altera fundamentalmente o TCO (Total Cost of Ownership) e a rentabilidade do metro quadrado nos data centers. Três vetores principais sustentam esta adoção estratégica:

1. Otimização de footprint: A alta densidade permite processar volumes massivos de dados em áreas físicas reduzidas. Enquanto modelos antigos operavam com 300 racks para entregar 2 MW, as novas arquiteturas podem atingir a mesma potência com apenas 20 racks.

2. Performance térmica: O uso de Unidades de Distribuição de Resfriamento (CDUs) e circuitos fechados permite operar com temperaturas mais elevadas na rejeição de calor, abrindo caminho para sistemas de automação que modulam a velocidade de ventiladores e otimizam o consumo energético global.

3. Rentabilidade: Embora o investimento inicial (CAPEX) em infraestrutura líquida seja superior - com estimativas de 20% a 30% de incremento em relação aos sistemas tradicionais -, a capacidade de gerar mais receita por metro quadrado e a redução proporcional do custo operacional (OPEX) justificam o retorno sobre o investimento a longo prazo.

Desafios de implementação e riscos de engenharia

A implementação dessa tecnologia em larga escala, especialmente no Brasil e na América Latina, enfrenta gargalos críticos de maturidade no ecossistema de fornecedores e mão de obra. A engenharia de um data center refrigerado a líquido exige tolerância zero a falhas, uma vez que a inoperância do sistema de resfriamento pode resultar na perda imediata de ativos de TI de altíssimo custo.

A complexidade aumenta significativamente em projetos de retrofit (brownfield). A infraestrutura necessária para suportar racks de altíssima densidade exige reforços estruturais no piso e pé-direito elevado para acomodar a densa rede de tubulações de água de altíssima pureza, além de novas salas elétricas e geradores para suportar a carga energética intensiva.

Adicionalmente, novos Acordos de Nível de Serviço (SLAs) entram em jogo. A operação passa a monitorar não apenas temperatura e umidade, mas também a pressão, vazão e qualidade química do líquido refrigerante, garantindo que não existam impurezas que possam obstruir os microcanais de resfriamento dos chips.

Robson Pacheco, diretor comercial da Vertiv na América Latina, moderou o debate (Foto: GRI Institute)

O paradoxo do investidor e as linhas de financiamento

O setor vive um "mismatch" entre o tempo de maturação da infraestrutura física e a velocidade da evolução tecnológica. Projetos que levam anos para serem planejados e financiados podem ser confrontados com novas demandas tecnológicas ainda durante a fase de construção, exigindo contratos extremamente flexíveis e modulares.

No contexto brasileiro, a indústria tem se financiado majoritariamente via balanço corporativo, mas há uma transição gradual para estruturas de Project Finance. A segurança para o investidor institucional reside na natureza dos contratos: ativos reais, lastreados em moedas fortes (dólar) e com inquilinos que figuram entre as empresas de maior capitalização de mercado do mundo. O risco do ineditismo da tecnologia é mitigado pela longevidade e previsibilidade das receitas geradas por esses contratos de longo prazo.

ESG é diferencial competitivo para o Brasil

A sustentabilidade deixou de ser um tópico acessório para se tornar um pilar de viabilidade financeira. O Brasil posiciona-se como um destino privilegiado para o capital global devido à sua matriz energética majoritariamente renovável (superior a 80%). Enquanto em mercados desenvolvidos o consumo de água por evaporação e a dependência de fontes fósseis geram atritos regulatórios e sociais, a indústria nacional já opera predominantemente com circuitos fechados e baixo consumo hídrico.

A eficiência medida pelo PUE (Power Usage Effectiveness) tende a cair drasticamente com o liquid cooling, permitindo que os operadores acessem linhas de crédito verde com custos de capital reduzidos. O compromisso com indicadores como o WUE (Water Usage Effectiveness) próximo a zero reforça a narrativa de que o data center moderno é uma das operações industriais mais eficientes em termos de sustentabilidade e lucratividade.

Perspectivas futuras: escalabilidade e padronização

O futuro próximo aponta para uma corrida pela padronização. Atualmente, o ecossistema lida com uma fragmentação de tecnologias e conexões entre diferentes fabricantes, o que gera ineficiências em ambientes de colocation. A maturidade virá com a repetição dos projetos e a consolidação de normas técnicas regionais.

A América Latina, liderada pelo Brasil - que representa 50% do mercado regional -, está apenas no início da curva de adoção. A tendência é que a refrigeração líquida extrapole os chips e alcance outros componentes da infraestrutura, como barramentos elétricos e sistemas de energia em corrente contínua (DC) de altíssima potência. 
O liquid cooling não é mais um "se", mas um "quando", consolidando-se como a espinha dorsal que permitirá a sustentação da economia digital baseada em dados e IA.

---

Os insights desse artigo foram extraídos da mesa-redonda "Entre o hype e o ROI - O que realmente esperar do Liquid Cooling?", realizada no escritório da Vertiv, em São Paulo, com moderação de Robson Pacheco (Vertiv) e participações especiais de Anderson Quirino (Mendes Holler Engenharia), Fernando Madureira (Elea Data Center), Fábio Pezutto (Afonso França), Rodrigo Radaieski (Ascenty) e Tiago Tognozi (Omnia Data Centers). 
Você precisa fazer login para baixar este conteúdo.