Realidade por Tamanho de Infraestrutura
Requisitos de Temperatura e Umidade
Limites Operacionais de Servidor:
Fabricante (Dell, HPE, IBM) especifica faixa segura de temperatura. Típico: 0–35°C, mas ideal é 15–27°C (ASHRAE A1). Acima de 27°C: risco de falha aumenta exponencialmente. A cada °C acima de 27°C, probabilidade de falha dobra (~5% por °C). A 35°C: risco de crash é eminente.
Meta Operacional: 20–24°C
— Balanço entre segurança (margem acima de 27°C) e eficiência energética (não super-resfriar). A 20°C: segurança máxima, custo de AC alto. A 24°C: custo AC baixo, margem ainda confortável (3°C antes de risco). Maioria dos data centers usa 22–23°C (setpoint).
Umidade Relativa (RH): 30–55%
— Fora deste range: risco. RH <20%: ressecamento danifica circuito integrado (eletrostática). RH >60%: umidade favorece corrosão de componentes. Meta: 45–50% RH.
ASHRAE Thermal Guidelines: Padrão global para data center. Divide em zonas de operação:
- A1 (ideal): 18–27°C, 20–80% RH — Computadores funcionam bem
- A2 (aceitável): 10–35°C, 20–80% RH — Risco moderado, não recomendado
- A3/A4 (marginal/não-recomendado): acima de 35°C — Falha iminente
Fluxo de Ar: Hot Aisle / Cold Aisle
Conceito fundamental:
Data center tem racks (armários com servidores). Ar frio entra pela frente, ar quente sai pela trás. Sem organização, ar frio e quente se misturam, ineficiência térmica.
Cold Aisle (corredor frio):
Frente dos racks. AC fornece ar frio aqui. Servidores aspiram ar da frente. Temperatura: 18–22°C.
Hot Aisle (corredor quente):
Trás dos racks. Ar quente expelido pelos servidores. Esse ar volta ao AC para ser resfriado. Temperatura: 25–30°C (quente, não perigoso, apenas retorno).
Separação física:
Cortinas ou painéis entre cold/hot aisle reduzem mistura de ar. Benefício: AC trabalha menos (ar frio não se mistura com quente), economia 10–15% de energia. Sem separação: ar frio e quente se misturam na saída, AC resfria ar já esfriado (desperdício).
Exemplo de economia:
Data center 500 kW IT. Sem separação: PUE 2.0 (1 kW IT = 1 kW AC). Com separação + freecooling: PUE 1.3 (1 kW IT = 0.3 kW AC). Economia: 0.7 kW AC × 24h × 365 dias × R$ 1/kWh = R$ 6.132/ano. Investimento separação (cortinas, painéis): R$ 5–15k. Payback: <1 ano.
Redundância: N+1 e N+2
N+1 (mínimo recomendado):
Duas unidades de climatização em paralelo. Se uma falha, outra segue alimentando. Exemplo: dois chillers de 250 kW cada, cada um carregando 40% da carga normal (200 kW). Se um falha, o outro toma 100% carga (250 kW), ainda suficiente (não ideal, mas aguenta 4–8 horas até conserto).
N+2:
Três unidades. Duas falham, uma segue. Maior segurança, custo +60% vs N+1. Justificável se empresa é banco, hospital, operadora de telecom (downtime = R$ milhões).
Load Balancing:
Ambas unidades funcionam simultaneamente, cada uma a 50% carga. Falha de uma não causa pico no sobrecarregado (ambas rodando normalmente, sem estresse). Isso prolonga vida útil e permite manutenção sem downtime (desligar uma, outra segue).
Custo de redundância:
+50–100% do valor de um chiller. Exemplo: chiller único 500 kW = R$ 2M. Chiller redundante (N+1, dois de 250 kW) = R$ 3M. Diferença: R$ 1M (+50%). Payback: se downtime custa R$ 100k/hora, redundância se paga em 10 horas de evitação de downtime.
Tipos de Climatização para Data Center
Tipo 1: Chiller Agua Gelada + Fan-Coil
Gold standard. Chiller externo produz água gelada (5–7°C). Tubulação leva água para fan-coil (unidade dentro data center). Fan-coil sopra ar frio. Precisão: ±2°C (excelente). Custo: alto (R$ 1.5–3M para 500 kW). Eficiência: boa (PUE 1.3–1.5 com freecooling). Manutenção: moderada (tubulação, válvulas, filtros).
Tipo 2: CRAC (Computer Room Air Conditioner)
Unidade agrocomercial (parecida com AC caseiro, mas grande). Coloca-se em espaço para ocupar (piso ou teto). Precisão: ±3–4°C (menos precisa que chiller). Custo: muito alto (R$ 50–150k por unidade, menos eficiente que chiller). Eficiência: ruim (PUE 1.8–2.2). Desvantagem: produto descontinuado (fabricantes migrando para chiller + freecooling). Não é recomendado para data center novo.
Tipo 3: Freecooling (Ar Exterior Frio)
Aproveita temperatura exterior fria (noite, inverno, clima moderado) para refrescar data center sem usar compressor do chiller (economia 80% energia nesse período). Sistema: ar exterior passa por filtro, troca térmica com ar quente do data center, ar frio retorna. Requisito: temperatura exterior <18–20°C. Aplicação: sul do Brasil, regiões montanhosas, noites frias.
Redução de energia: 20–40% anual em climas adequados. Custo: R$ 200–500k (equipamento + instalação). Payback: 2–4 anos em clima favorável.
Tipo 4: InRow Cooling (Resfriadores em Linha)
Unidade pequena colocada entre racks, aspira ar quente direto da saída do rack, resfria localmente. Precisão extrema (±1°C). Custo: altíssimo (R$ 500–1000/kW). Manutenção: complexa. Aplicação: data center ultradenso (muito calor gerado, espaço muito reduzido). Não recomendado para casos comuns.
PUE: Eficiência da Climatização
Definição:
PUE = Energia Total / Energia IT. Mede eficiência de todo data center.
Exemplo:
Data center 1 MW IT (energia consumida por servidores). Chiller + distribuição + perdas = 1 MW. PUE = 2 MW total / 1 MW IT = 2.0. Interpretação: para cada watt de IT, gasto 1 watt extra em climatização + outros sistemas.
Benchmarks:
- Excelente (mega-operadores): PUE 1.1–1.3 (Google, Facebook, Microsoft com freecooling otimizado)
- Bom (grande empresa): PUE 1.3–1.5 (chiller + freecooling parcial)
- Médio (corporativo): PUE 1.6–1.8 (chiller sem freecooling)
- Ruim (data center velho): PUE >2.0 (chiller único, sem otimização)
Metas para melhoria:
Se PUE é 2.0, investimento em freecooling (R$ 300k) pode reduzir para 1.4 (redução 0.6 PUE). Economia: 0.6 kW × 24h × 365 × R$ 1/kWh = R$ 5.256/ano. Payback: 57 anos (não viável). Mas se energia é mais cara (R$ 2/kWh): R$ 10.512/ano ? payback 28 anos (ainda longo, mas em 10 anos recupera R$ 105k). Análise deve ser contextual ao preço local de energia.
BMS (Building Management System) — Monitoramento Crítico
Sensores de temperatura:
Colocar em 4–8 pontos diferentes (cold aisle entrada, hot aisle saída, intermediate) para detectar hot spots (áreas com temperatura anomalamente alta, sinal de distribuição ruim ou equipamento superaquecido).
Alerta em tempo real:
Se temperatura em qualquer ponto sobe acima de 25°C (margem), sistema alerta. Se atinge 27°C, alerta crítico (risco de falha iminente). BMS pode executar ações automáticas: reduzir velocidade de processador (throttling), desligar aplicação não-crítica, etc.
Histórico de 5+ anos:
Registrar toda temperatura medida. Validar SLA compliance ("temperatura <27°C 100% do tempo?" — sim ou não, comprovável com histórico). Se fornecedor falha SLA, documentação justifica multa contratual.
Integração com TI:
Se temperatura fica crítica (26°C+), sistema de TI é notificado. Aplicação pode fazer graceful shutdown (desligar ordenadamente) antes de crash forçado (perda de dados). Crítico para resiliência.
SLA (Service Level Agreement) — Validação de Contrato
Cláusula crítica 1: Temperatura.
"Fornecedor garante temperatura <27°C 99.99% do tempo". 99.99% = máximo 4,38 horas downtime/ano (temperatura excedeu 27°C por 4,38 horas durante ano). Historicamente validável com BMS logs. Se não atingido, multa: 0.5% fatura mensal × quantos meses violou.
Cláusula crítica 2: Uptime de climatização.
"Sistema de climatização está operacional 99.99% do tempo". Se chiller falha por 12 horas (reparação demorada), violou SLA. Compensação: reembolso de 1 mês de climatização (R$ 10–50k típico).
Cláusula crítica 3: Resposta a falha.
"Técnico responde em <15 minutos para emergência de temperatura". Se sensor detecta 28°C, chamado é automático. Se resposta demora 1 hora, fornecedor violou SLA.
Cláusula crítica 4: Manutenção preventiva sem downtime.
"Manutenção anual de chiller é realizada com redundância ligada (N+1 absorve)" — assim, data center continua operacional durante manutenção. Se contrato exigir shutdown de 8 horas para manutenção, é contrato ruim.
Cláusula crítica 5: Escalabilidade.
"Se crescimento de IT exigir mais refrigeração, fornecedor amplia sistema em 4 semanas, sem downtime". Garante que crescimento não exige downtime.
Integração com Energia Renovável
Data center consome muita energia (40–60% em climatização). Integração com solar reduz dependência de rede. Exemplo: 500 kW IT = 1 MW total (com chiller). Painéis solares 500 kW podem fornecr ~60% da energia diária (depende de insolação). Bateria estacionária (200 kWh) cobre transições de noite/dia. ROI: 5–7 anos em cenário viável. Benefício secundário: se rede cai, data center segue rodando 4–8 horas com solar + bateria.
Sinais de que Data Center Precisa de Auditoria de Climatização
- Data center novo; qual sistema climatizar?
- PUE está alto (2.5+); há problema?
- Temperatura flutua; qual é risco?
- Redundância chiller: realmente necessária?
- Freecooling compensa economicamente?
- BMS antigo; quer modernizar monitoramento
Como Validar/Implementar Climatização de Data Center
Auditoria de Data Center Existente
Coletar: (1) especificações de chiller (potência kW, idade, consumo elétrico); (2) histórico de temperatura (últimos 12 meses, máximo/mínimo/média); (3) SLA atual (copiar cláusulas críticas); (4) consumo de energia (contas elétricas); calcular PUE atual. Com dados, diagnosticar se sistema está adequado.
Consultoria Especializada de Data Center
Contratar engenharia especializada em data center (certificação UPTIME Institute é plus). Solicitação: (1) avaliação de tier atual (Tier I–IV conforme redundância); (2) design de chiller/freecooling/redundância; (3) validação de SLA proposto (é adequado?); (4) orçamento (equipamento + instalação); (5) cronograma (6–12 meses típico para data center médio). Custo consultoria: R$ 50–150k. Implementação: R$ 500k–2M+ (depende de escala).
Coletar: (1) especificações de chiller (potência kW, idade, consumo elétrico); (2) histórico de temperatura (últimos 12 meses, máximo/mínimo/média); (3) SLA atual (copiar cláusulas críticas); (4) consumo de energia (contas elétricas); calcular PUE atual. Com dados, diagnosticar se sistema está adequado.
Contratar engenharia especializada em data center (certificação UPTIME Institute é plus). Solicitação: (1) avaliação de tier atual (Tier I–IV conforme redundância); (2) design de chiller/freecooling/redundância; (3) validação de SLA proposto (é adequado?); (4) orçamento (equipamento + instalação); (5) cronograma (6–12 meses típico para data center médio). Custo consultoria: R$ 50–150k. Implementação: R$ 500k–2M+ (depende de escala).
Data center exige ±2°C e redundância N+1; climatização não é "corporativa" — é engenharia crítica. Está seu data center preparado para crescimento e resiliência?
Procure consultoria especializada em data center (categoria oHub Facilities / Infraestrutura TI Crítica) para design, validação de SLA e implementação.
Encontrar fornecedores de Facilities no oHub
Sem custo, sem compromisso. Você recebe propostas e decide se e com quem avançar.
Perguntas Frequentes
20–24°C é meta. 24–27°C é operacional aceitável. Acima de 27°C: risco de falha. A maioria dos data centers usa setpoint 22–23°C (balanço entre segurança e custo de energia). ASHRAE recomenda A1 (18–27°C), mas dentro dessa faixa, 22–23°C é prático.
N+1 (dois chillers) é CRÍTICO. Se único chiller falha, data center aquece em 2–4 horas (sem resfriamento). Custo de downtime é tipicamente 10–100x maior que custo de redundância. Apenas exceção: co-location em facility tercerizado (fornecedor garante redundância, responsabilidade é dele). Prédio corporativo com data center próprio: redundância é obrigatória.
10–15% redução de consumo AC se feito bem (separação física com painéis, sem vazamento de ar). Exemplo: 500 kW IT, AC custa R$ 50k/ano em energia. Redução 15% = R$ 7.500/ano. Investimento separação (cortinas, painéis): R$ 10–20k. Payback: 1,5–2 anos. Além disso, servidor roda mais frio (melhor estabilidade, vida útil prolongada).
Instalação: 30–50% do custo total data center (vs 5–10% em edifício corporativo). Chiller modular 500 kW: R$ 1.5–2.5M equipamento + R$ 500k instalação. Operacional: 30–50% da conta de energia (consumo alto, valor grande). Redundância: +50–100% custo inicial, economiza em risco de downtime.
Data center 1 MW IT. PUE 1.2: total 1.2 MW energia. PUE 2.0: total 2.0 MW energia. Diferença: 0.8 MW × 24h × 365 dias × R$ 1/kWh = R$ 7.008/ano (se energia R$ 2/kWh, R$ 14.016/ano). Em 10 anos: R$ 70–140k de economia. Investimento em freecooling para reduzir de 2.0 a 1.4 PUE: R$ 300k. Payback: 2–4 anos em cenários viáveis.
Referências e Normas
- ASHRAE TC 9.9 — Data Center Cooling Standards — Thermal Guidelines A1, A2, A3, A4 zones. Temperatura, umidade, padrões
- UPTIME Institute — Tier Standards — Tier I–IV (redundância, disponibilidade esperada)
- PUE Benchmarking Global — Google, Facebook, Microsoft = 1.1–1.3; indústria = 1.6–2.0; Data Center efficiency comparison
- Fabricante Chiller (Trane, Carrier, York) — Especificações técnicas, capacidade, consumo