A IA depende de data centers que usam grandes quantidades de energia
Jason Alden/Bloomberg/Getty
Ser mais inteligente sobre quais modelos de IA você usa para tarefas pode economizar 31,9 terawatts-hora de energia somente neste ano. Isto equivale à potência de cinco reatores nucleares.
Thiago da Silva Barros da Universidade Cote d’Azur, na França, investigou 14 tarefas diferentes nas quais as pessoas usam ferramentas generativas de IA, desde a geração de texto até o reconhecimento de fala e a classificação de imagens.
Em seguida, exploramos tabelas de classificação públicas, incluindo aquelas hospedadas pelo centro de aprendizado de máquina Hugging Face, para ver o desempenho de diferentes modelos. A eficiência energética do modelo durante a inferência, quando o modelo de IA gera uma resposta, foi medida por uma ferramenta chamada CarbonTracker, e o uso total de energia do modelo foi calculado rastreando os downloads dos usuários.
“Estimamos o consumo de energia com base no tamanho do modelo e podemos tentar estimá-lo com base nisso”, diz da Silva Barros.
Os pesquisadores descobriram que, em todas as 14 tarefas, mudar do modelo de melhor desempenho para o modelo com maior eficiência energética para cada tarefa reduziu o uso de energia em 65,8% e reduziu a utilidade do resultado em apenas 3,9%. Os investigadores sugerem que esta compensação pode ser aceitável para o público em geral.
Algumas pessoas já utilizam o modelo mais económico, por isso, se as pessoas no mundo real mudassem de um modelo de alto desempenho para um modelo com maior eficiência energética, o seu consumo global de energia poderia ser reduzido em cerca de 27,8%. “Ficamos surpresos com o quanto poderíamos economizar”, diz membro da equipe Frédéric Giroir No Centro Nacional Francês de Pesquisa Científica.
Mas da Silva Barros diz que isso exigirá mudanças tanto dos usuários quanto das empresas de IA. “É preciso pensar em rodar um modelo menor, mesmo que perca um pouco do desempenho”, diz ele. “E à medida que as empresas desenvolvem os seus modelos, é importante que partilhem informações sobre os seus modelos para que os utilizadores possam compreender e avaliar se eles consomem muita energia.”
Algumas empresas de IA reduzem o consumo de energia dos seus produtos através de um processo denominado destilação modelo. Este processo usa um modelo maior para treinar um modelo menor. Isso já está tendo um impacto enorme. Padre Chris na Universidade de Bristol, Reino Unido. Por exemplo, o Google afirmou recentemente que: 33x mais eficiência energética Gêmeos no ano passado.
Mas permitir que os usuários escolham o modelo mais eficiente “é pouco provável que resulte na limitação dos ganhos de energia dos data centers, como sugerem os autores, pelo menos na atual bolha de IA”. diz padre. “Ao reduzir a energia por solicitação, podemos atender mais clientes com mais rapidez e com opções de inferência mais sofisticadas”, diz ele.
“O uso de modelos menores reduzirá definitivamente o uso de energia no curto prazo, mas há muitos outros fatores que precisam ser considerados ao fazer quaisquer projeções significativas para o futuro”, diz ele. Sasha Ruccioni Com cara de abraço. Ela alerta que “precisamos de considerar os efeitos de recuperação, como o aumento da utilização, bem como os impactos sociais e económicos mais amplos”.
Luccioni destaca que devido à falta de transparência de cada empresa, as pesquisas nesta área dependem de estimativas e análises externas. “O que precisamos para fazer esta análise mais complexa é de mais transparência por parte das empresas de IA, operadores de data centers e até mesmo governos”, diz ela. “Isso permitirá que pesquisadores e legisladores façam previsões e decisões informadas.”
tópico:



