Qual o consumo de energia das IA? Talvez mais do que podemos suportar

Qual o consumo de energia das IA? Talvez mais do que podemos suportar

Sabemos que uma das maiores preocupações com o futuro é o quanto a revolução das IA vai afetar a nossa matriz energética, e essa preocupação se torna ainda mais urgente quando nem mesmo as próprias empresas que desenvolvem essas ferramentas sabem dizer exatamente o quanto elas consomem de eletricidade.

Por isso, muitas pessoas têm se dedicado em fazer projeções e tentar entender qual será o real impacto energético de todos esses data centers que estão sendo erguidos – mas as dificuldades são muitas.

Por que é tão difícil fazer esse cálculo?

De acordo com Sasha Luccioni, pesquisador da Hugging Face (empresa especializada em IA), uma das maiores dificuldades para se efetuar este cálculo é a falta de transparência das empresas. Ele lembra que, há alguns anos atrás, a OpenAI publicava relatórios detalhados de tudo aquilo que ela estava desenvolvendo, descrevendo não apenas o regime de treinamento das IA como cada hardware utilizado – e esta informação simplesmente não existe no ChatGPT e outros modelos mais recentes da empresa. Ele usa a OpenAI como exemplo, mas afirma que isso é prática comum do mercado e não algo exclusivo dela.

Para o pesquisador, o medo da concorrência é um dos motivos de manter essas informações em segredo, mas também acredita que o medo de críticas também esteja envolvido nessa decisão. Ele acredita em um certo “receio” do mercado em divulgar os números referentes ao consumo de energia e esses números serem automaticamente munição para críticos, que poderiam tentar igualar essas figuras ao gasto energético que coisas que o público já enxerga como desperdício (as criptomoedas, por exemplo).

Outra dificuldade em fazer essas estimativas é que o gasto necessário para o treinamento de uma IA é bem diferente daquele que acontece durante a inferência (o momento que a IA já está treinada e o público começa a utilizá-la). Por exemplo, a estimativa energética para se criar um IA como o ChatGPT é de 1300 MWh (megawatt hora) – o equivalente ao que 130 casas consomem em um ano inteiro. Mas, depois de treinado, estima-se que a mesma IA consome cerca de 0.047 kWh (kilowatt hora) para gerar um mesmo prompt de texto mil vezes – o equivalente ao que você gasta para assistir 3,5 minutos de Netflix no seu computador.

Claro, esse consumo também muda muito dependendo da atividade: enquanto gerar textos tem um custo energético baixo, esses valores aumentam quando falamos da geração de imagens: gerar mil imagens baseados em um mesmo prompt consome cerca de 2907 kWh – o que dá mais ou menos o mesmo gasto que você tem para carregar a bateria do seu celular para cada imagem gerada. E, quando começamos a entrar nas especificidades de cada dispositivo (como gerar uma imagem em qualidade 4K ou um favicon de poucos pixels), a variação do consumo de energia vai se tornando cada vez maior.

Então como calcular esse custo?

Para Alex de Vries, candidato ao doutorado na Universidade Livre de Amsterdã, a melhor solução para este cálculo é esquecer as especificidades e tentar enxergar o sistema como um todo. Ele já utilizou uma abordagem parecida para calcular o consumo de energia do Bitcoin no blog Digiconomist, e acredita que é possível chegar a uma projeção realista do custo energético da IA pelo mesmo caminho.

Em uma explicação publicada ano passado na revista Joules, De Vries explica que cerca de 95% do mercado de IA hoje utiliza placas e equipamentos da NVIDIA – empresa esta que divulga em detalhes qual o consumo energético de cada um de seus produtos. Pegando os números disponibilizados pela empresa como base para os cálculos, ele chegou a conclusão de que, até 2027, as IA irão consumir entre 85 e 134 TWh (terawatt hora) – mais ou menos o que a Holanda inteira consome de energia durante um ano. 

Caso a estimativa esteja correta, isso significaria que, em 2027, cerca de 0,5% de todo o consumo de energia do mundo seria dedicado apenas a soluções de IA. E, considerando que o consumo atual pelos data centers (basicamente toda a estrutura que permite a existência da internet) já consome cerca de 2% da energia elétrica gerada no mundo, esse aumento de 0,5% pode parecer pouco no papel, mas na prática pode significar a existência de “rodízios de energia” em áreas mais periféricas caso o aumento da produção não consiga acompanhar o aumento de demanda.

Mas Vries lembra que, apesar de preocupante, precisamos colocar essas informações em contexto. Afinal, os data centers já consumiam cerca de 2% da energia mundial desde 2018, e se essa demanda não aumentou de lá pra cá é porque as tecnologias que utilizam tem se tornada cada vez mais energeticamente eficientes com o passar dos anos – e essa evolução na eficiência é algo que se precisa levar em conta quando fazemos projeções futuras.

Ainda é impossível dizer se as melhorias na eficiência energética irão compensar o aumento no consumo mundial gerado pelas IA, mas De Vries acha que devemos pensar até mesmo em soluções que não sejam só aumentar a produção de energia. Ele pede para considerarmos se tudo precisa mesmo ser feito por IA, e aponta que só o fato de não criarmos modelos para atuar em lugares onde uma IA não é a solução já poderá ajudar a evitar o desperdício energético.

Com informações da The Verge

Compartilhe:

Não perca nenhum conteúdo!

Inscreva-se na newsletter do Innovation Hub Show

Não perca nenhum conteúdo!

Inscreva-se na newsletter do Innovation Hub Show

Faça parte da maior comunidade de tecnologia e inovação do país!

Siga o Innovation Hub Show nas redes sociais e onde você escuta seus podcasts.