
Por Flavio Horita*
A inteligência artificial já não é novidade no mundo corporativo. Diversos estudos indicam que mais de dois terços das empresas já adotam algum tipo de automação — ou até agentes — em seus processos diários. Casos comuns incluem qualificação de leads, campanhas de marketing em escala, interação em redes sociais e operações de suporte em TI. Tudo isso apenas evidencia que ainda estamos no “início” dessa revolução. Há sinais do mercado apontando para um futuro em que agentes negociarão com outros agentes. Em outras palavras, poderemos solicitar que um agente organize uma viagem ao Nordeste negociando com diferentes “agências” de turismo — estas, também personalizadas como agentes. Hoje, já é comum pedirmos cotações — e até realizarmos compras — via ChatGPT.
Mas enquanto o mercado celebra ganhos de produtividade, uma nova preocupação emerge em paralelo: o aumento da infraestrutura global de processamento necessária para sustentar esse ecossistema. Cada vez mais data centers estão sendo construídos por Google Cloud (GCP), Microsoft, NVIDIA e Amazon Web Services (AWS) para atender à demanda crescente.
A OpenAI, por exemplo, firmou um acordo de US$ 38 bilhões de sete anos com a AWS para escalar sua carga de GenAI. O Google, por sua vez, está desenvolvendo uma rede de fibra óptica submarina para interligar data centers com menor latência.
Por trás dessa promessa de eficiência exponencial, há uma conta invisível: a ambiental. Cada nova geração de modelos exige mais energia, mais resfriamento, mais infraestrutura. Dentro desse contexto, cresce o movimento em direção à sustentabilidade. Projetos como o Concept Astro, da Dell, são exemplos de iniciativas que alinham eficiência energética e responsabilidade ambiental.
No entanto, é fundamental ir além da infraestrutura e olhar também para as estratégias de desenvolvimento de software — o chamado Green Coding. Poucos se atentam ao fato de que todo esse processamento, seja em IA ou em outras aplicações computacionais, consome grandes quantidades de recursos naturais (água e energia) para manter seus “códigos” em execução.
Relatórios apontam que mais de 22% dos códigos hoje já são gerados com apoio de IA, o que resultou em um aumento de 60% no volume de pull requests semanais. A famosa busca por agilidade e redução do time-to-market já era complexa em um ambiente sem GenAI, marcada pela constante pressão por evolução de produtos e entregas.
Com a IA generativa, essa pressão tende a aumentar ainda mais — o que pode, por um lado, elevar o número de erros e falhas e, por outro, gerar códigos pouco otimizados. Em ambos os casos, o problema se agrava pela falta de tempo — ou de prioridade — para refatoração e otimização.
Nesse sentido, o green coding vai muito além de escrever código eficiente em termos de desempenho. Trata-se de uma mudança de mentalidade voltada à criação de software que minimize o uso de recursos, reduzindo o consumo de energia e as emissões de carbono. Isso inclui otimizar algoritmos, diminuir a transferência de dados e adotar linguagens de programação mais eficientes.
O conceito de FinOps para sustentabilidade leva essa abordagem um passo adiante, alinhando as operações financeiras às metas ambientais — garantindo que os gastos em TI resultem não apenas em eficiência de custos, mas também em menor impacto ecológico.
Dentro desse cenário, vale ainda destacar o peso do débito técnico improdutivo, especialmente em sistemas e softwares legados, que frequentemente representam desperdício de energia, tempo e recursos.
O futuro da Inteligência Artificial não será medido apenas pela velocidade de entrega, mas pela capacidade de entregar mais — consumindo menos. Sustentabilidade, aqui, não é obstáculo: é eficiência inteligente.
*Flavio Horita é CTO da Climatempo






Sem comentários registrados