A corrida tecnológica da IA precisa considerar os limites do planeta, fontes de energia e o impacto social
O avanço da inteligência artificial (IA) tem um preço que ainda começa a ser medido. Por trás das respostas instantâneas de assistentes virtuais, dos algoritmos de previsão climática e das imagens criadas por sistemas generativos, há uma infraestrutura colossal — formada por data centers, redes de energia e cadeias de mineração — que consome volumes cada vez maiores de eletricidade e água. Estudos internacionais já apontam que o treinamento de modelos de linguagem de grande porte pode demandar o equivalente ao consumo anual de uma cidade de médio porte. O relatório AI Index Report 2025 (publicado pela Universidade de Stanford) indica que o modelo GPT‐4 (2023) emitiu cerca de 5.184 toneladas de CO₂ durante seu treinamento, e o Llama 3.1 405B (2024), algo em torno de 8.930 toneladas. Este último dado equivale ao consumo anual de 970 brasileiros. “As empresas de tecnologia já estão se preparando e investindo pesado para atender essa demanda, porque sem infraestrutura energética não há como escalar a IA”, observa Onara Lima, engenheira ambiental, especialista em sustentabilidade e coautora do livro Visão ESG: Negócios Resilientes. À medida que o uso da IA se populariza, a pressão sobre a infraestrutura energética se intensifica, levantando uma nova questão ética e ambiental: até que ponto o ganho tecnológico justifica o custo ecológico?
No Brasil, esta equação começa a ganhar contornos próprios. Batizado de Santos Dumont II, o novo sistema do INPE (Instituto Nacional de Pesquisas Espaciais) é 25 vezes mais rápido que seu antecessor. O equipamento integra técnicas de IA aos modelos meteorológicos e foi concebido com foco em eficiência energética e otimização de refrigeração. A máquina, entre as mais potentes da América Latina, permite rodar modelos de alta resolução para antecipar secas, enchentes e eventos extremos — essenciais para a adaptação às mudanças climáticas.
O paradoxo energético da era digital
O funcionamento da IA depende de data centers — enormes armazéns de servidores que processam e armazenam dados 24 horas por dia. Segundo estimativas da Agência Internacional de Energia (IEA), os centros de dados e as redes digitais já consomem cerca de 1,5% da eletricidade global. Essa participação pode chegar a quase 3% até 2030. Nos Estados Unidos, estados como Califórnia e Arizona, com histórico de escassez hídrica, enfrentam tensões crescentes entre comunidades locais e gigantes tecnológicas que disputam o uso da água. A busca por autonomia energética está levando empresas como o Google a investir em data centers movidos a energia nuclear, em parceria com a startup Oklo. A estratégia visa garantir fornecimento estável e livre de carbono para treinar modelos de IA em larga escala — um sinal de que a corrida por energia limpa e constante se tornou prioridade na era digital. No Brasil, a discussão ainda é incipiente, mas ganha relevância à medida que o país se posiciona como destino para infraestrutura de nuvem. Onara Lima faz um alerta: “O Brasil tem um problema sério, que é a falsa sensação de abundância. Nós temos biodiversidade, recursos hídricos, terra e energia, mas não uma boa distribuição desses recursos. Nem toda a energia renovável é igualmente acessível”. Essa “sensação de abundância” mascara desigualdades regionais e limita a percepção do risco energético. A maior parte da água do país fica na região amazônica. Não é raro termos escassez em grandes centros, por exemplo. O país enfrenta gargalos na transmissão e na modernização de redes, além de custos ambientais ligados à expansão de hidrelétricas e ao impacto de linhas de transmissão sobre biomas sensíveis.
Rumo à eficiência computacional
Tornar a IA mais sustentável passa não apenas por fontes limpas de energia, mas também por avanços técnicos nos próprios modelos. Empresas e centros de pesquisa vêm investindo em processos que reduzem o número de parâmetros sem comprometer a precisão. Essas soluções diminuem o consumo de energia e aceleram o tempo de treinamento. Há ainda uma nova geração de chips e arquiteturas projetadas para eficiência energética. Fabricantes como Nvidia e AMD trabalham em GPUs com menor dissipação térmica, enquanto startups apostam em designs neuromórficos que imitam o funcionamento do cérebro humano. Mas, como lembra Onara, a sustentabilidade vai além do software: “Quando falamos de IA, estamos abordando também a cadeia física — da mineração de materiais à produção de chips e servidores. É preciso olhar para o ciclo completo, inclusive para o descarte e a reciclagem desses equipamentos.” A reflexão é fundamental num contexto em que cresce a demanda por minerais críticos — como lítio, cobre e cobalto. Nesse sentido, a IA reproduz o paradoxo de outras transições tecnológicas: depende de extrações intensivas para viabilizar uma economia digital que se pretende verde.
IA a serviço do planeta
Apesar do alto custo ambiental, a IA pode ser também uma aliada poderosa da sustentabilidade. Algoritmos já são utilizados para otimizar o uso de energia em edifícios, prever falhas em redes elétricas e aprimorar a eficiência de turbinas eólicas. No campo ambiental, a tecnologia tem transformado o monitoramento de ecossistemas: satélites e sensores alimentados por IA rastreiam o desmatamento na Amazônia, detectam queimadas em tempo real e medem a qualidade da água em rios e represas. O próprio supercomputador do INPE exemplifica essa dualidade — ao mesmo tempo em que consome muita energia, oferece ganhos inestimáveis para a gestão climática. Ao prever com mais precisão eventos extremos, pode salvar vidas e orientar políticas públicas. Iniciativas semelhantes se multiplicam pelo mundo. Na África, a IA é usada para prever períodos