Um artigo no MIT Technology Review afirma que o ciclo de vida para o treinamento de grandes modelos comuns de IA tem um impacto ambiental significativo, relatando que “todo o processo pode emitir mais de 626.000 libras de equivalente de dióxido de carbono – quase cinco vezes as emissões durante a vida útil de um carro americano médio (e isso inclui a fabricação do próprio carro)”.
Um artigo de investigação de Alex de Vries, da VU Amsterdam School of Business and Economics, também levanta preocupações sobre o consumo de electricidade do desenvolvimento acelerado da computação e o potencial impacto ambiental da IA e dos centros de dados. “Nos últimos anos, o consumo de eletricidade dos data centers representou relativamente estável 1% do uso global de eletricidade, excluindo a mineração de criptomoedas”, diz de Vries.
Como funcionam os centros de dados de IA
Um estudo do MIT afirma que, há uma década, “a maioria dos modelos de PNL (Processamento de Linguagem Natural) poderia ser treinada e desenvolvida em um laptop ou servidor comum”. Mas os data centers de IA agora exigem múltiplas instâncias de hardware especializado, como unidades de processamento gráfico (GPUs) ou unidades de processamento de tensores (TPUs).
“O objetivo de um modelo de linguagem grande é adivinhar o que vem a seguir num corpo de texto”, diz um artigo da Columbia Climate School. “Para conseguir isso, primeiro ele deve ser treinado. O treinamento envolve a exposição do modelo a enormes quantidades de dados (possivelmente centenas de bilhões de palavras) que podem vir da Internet, livros, artigos, mídias sociais e conjuntos de dados especializados.”
Esse processo de treinamento leva semanas ou meses, durante os quais um modelo de IA descobre como executar determinadas tarefas com precisão, ponderando diferentes conjuntos de dados.
Inicialmente, o modelo de IA faz suposições aleatórias para encontrar a solução correta. Mas com a formação contínua, identifica cada vez mais padrões e relações nos dados fornecidos para produzir resultados precisos e relevantes.
Os avanços nas técnicas e no hardware para treinar redes neurais nos últimos anos permitiram “melhorias impressionantes na precisão em muitas tarefas fundamentais da PNL”.
“Como resultado, treinar um modelo de última geração requer agora recursos computacionais substanciais que exigem energia considerável, juntamente com os custos financeiros e ambientais associados”, acrescenta o estudo do MIT.
O sucesso do ChatGPT (que atingiu um número sem precedentes de 100 milhões de usuários em dois meses), influenciou a Microsoft e o Google a lançar seus próprios chatbots de IA, Bing Chat e Bard respectivamente, relata o artigo de Vries.
Vries disse à imprensa: “Já sabemos que os data centers representam 1% do consumo global de eletricidade. Graças às tendências digitais, como a mineração de criptomoedas e a IA, isso pode facilmente crescer para 2% ou mais nos próximos anos.”
O estudo do MIT estimou que a computação em nuvem tem uma pegada de carbono maior do que toda a indústria aérea. Além disso, um data center pode exigir a mesma quantidade de eletricidade necessária para abastecer cerca de 50 mil residências.
A eletricidade é necessária para operar chips e sistemas de resfriamento de alto desempenho, à medida que os processadores esquentam enquanto analisam enormes quantidades de dados e produzem respostas precisas.
O estudo de De Vries diz que o modelo “BigScience Large Open-Science Open-Access Multilingual (BLOOM) da Hugging Face consumiu 433 MWh de eletricidade durante o treinamento”.
“Outros LLMs, incluindo GPT-3, Gopher e Open Pre-trained Transformer (OPT), supostamente usam 1287, 1066 e 324 MWh respectivamente para treinamento. Cada um desses LLMs foi treinado em terabytes de dados e possui 175 bilhões ou mais de parâmetros”, acrescenta o estudo.
De Vries citou a empresa de pesquisa SemiAnalysis em seu artigo, que sugeria que a OpenAI exigia 3.617 servidores HGX A100 da NVIDIA, com um total de 28.936 GPUs para suportar ChatGPT, implicando uma demanda de energia de 564 MWh por dia.
“O Google relatou que 60% do consumo de energia relacionado à IA de 2019 a 2021 resultou de inferência (onde os dados ao vivo são executados por meio de um modelo de IA). A empresa controladora do Google, Alphabet, também expressou preocupação com os custos da inferência em comparação com os custos do treinamento”, acrescentou.
Um estudo realizado por pesquisadores da Universidade da Califórnia em Berkeley estimou que o GPT-3, no qual o ChatGPT foi modelado, tinha 175 bilhões de parâmetros que produziram 502 toneladas métricas de CO2 durante sua fase de treinamento, enquanto suas emissões diárias de carbono eram de 50 libras (ou 8,4 toneladas por ano).
O debate sobre a viabilidade da IA e ações futuras
De Vries afirma que a maior procura de energia para centros de dados será normalmente satisfeita por combustíveis fósseis. “Temos apenas uma oferta limitada de energias renováveis e já as priorizamos, portanto qualquer demanda extra será alimentada por combustíveis fósseis dos quais precisamos nos livrar”, disse ele aos repórteres. “Mesmo que incluamos energias renováveis na IA, alguma outra coisa terá de ser alimentada com combustíveis fósseis – o que apenas agravará as alterações climáticas.”
Avik Sarkar, professor da Escola Indiana de Negócios e ex-chefe do centro de análise de dados da Índia Niti Aayog, considera trivial o debate em torno das demandas energéticas e da pegada de carbono da IA. Trabalhou em uma análise junto à Agência Internacional de Energia (IEA) em 2018 sobre o crescimento dos data centers na Índia e seu impacto no consumo de energia no país.
“A pegada da IA no consumo de energia é minúscula e muitas tecnologias estão consumindo grandes quantidades de energia”, disse ele na entrevista. “Olhe para qualquer rua principal das grandes cidades, a quantidade de iluminação nos outdoors é tão grande que as luzes são visíveis do espaço exterior, chamadas de luzes noturnas, o que é um grande indicador de desenvolvimento e crescimento económico. O consumo de energia é um efeito natural da urbanização, do capitalismo e do crescimento económico – temos de aprender a conviver com essa realidade.”
Comentando sobre a procura de energia dos centros de dados de IA e o impacto das emissões de carbono, de Vries afirma que a questão não se limita apenas à Índia e que as alterações climáticas são um problema global. “Se aumentarmos tanto a procura de energia como as emissões de carbono como resultado da IA, isso também afectará todos os países vulneráveis”, disse ele.
Sarkar admite que grandes quantidades de consumo de energia para IA acontecem devido aos grandes centros de dados que fornecem infraestrutura de armazenamento e computação. Há um impacto adicional na energia proveniente da água utilizada para resfriar os data centers.
Sarkar destacou que a maioria dos centros de dados globais estão baseados fora da Índia, argumentando que o país não enfrenta atualmente um grande desafio. Com exceção dos dados pessoais, outros pontos de dados indianos podem ser armazenados em centros fora do país.
“Dados críticos relacionados a transações financeiras, Aadhar ou dados de saúde precisam residir na Índia e seriam enormes. A Índia tem diferentes zonas climáticas e pode mitigar o alto consumo de energia localizando esses data centers em zonas mais frias e não sísmicas do país”, sugeriu.
De acordo com De Vries, a boa notícia é que existem gargalos na cadeia de fornecimento de servidores de IA, o que significa que o crescimento será um tanto limitado no curto prazo. “Devemos aproveitar esta oportunidade para pensar na aplicação responsável da IA e garantir que a transparência também seja fornecida onde a IA está a ser usada, para que possamos avaliar adequadamente o impacto que esta tecnologia tem”, disse ele.
Por Sanjeev Kumar, jornalista com base em Shimla (Índia) especializado em meio ambiente, mudanças climáticas e política.
Nenhum comentário:
Postar um comentário