Um sistema avançado de inteligência artificial (IA) cruzou uma “fronteira perigosa” após se replicar com sucesso sem ajuda humana, revelaram pesquisadores.
A equipe que fez a descoberta, da Universidade Fudan, na China, disse que este foi o primeiro sinal do surgimento de uma IA maliciosa, que pode acabar agindo contra os interesses da humanidade.
A pesquisa se concentrou em dois grandes modelos de linguagem que já estão amplamente disponíveis — construídos pelo Llama da Meta e pelo Qwen da Alibaba — para descobrir se era possível para a IA produzir de forma independente uma réplica funcional de si mesma.
Quando solicitados a se clonarem em caso de queda de energia, os dois modelos se reproduziram com sucesso em mais da metade dos 10 testes realizados, sugerindo que tal eventualidade já pode ser possível.
“A autorreplicação bem-sucedida sem assistência humana é o passo essencial para que a IA supere os humanos e é um sinal precoce de IA maliciosa”, alertam os pesquisadores.
“A autorreplicação é, portanto, amplamente reconhecida como um dos poucos riscos de linha vermelha dos sistemas de IA de ponta.”
A segurança da IA tem se tornado uma questão cada vez mais importante para pesquisadores e formuladores de políticas, pois essa tecnologia pode representar uma ameaça existencial à humanidade.
Em outubro, o Departamento de Ciência, Inovação e Tecnologia do Reino Unido disse que introduziria “legislação muito específica” para empresas que desenvolvem ferramentas de IA.
Um estudo detalhando as pesquisas mais recentes, intitulado Frontier AI systems have exceeded the self-replicating red line , foi publicado no banco de dados de pré-impressão arXiv.
O artigo está pendente de revisão por pares, o que significa que ainda não há certeza se os resultados serão reproduzidos por outros pesquisadores.
“Os resultados sugerem que os atuais sistemas de IA já exibem a capacidade de se auto-replicar e podem usá-la para melhorar ainda mais sua capacidade de sobrevivência e expandir as espécies”, disseram os pesquisadores.
“Esperamos que nossas descobertas possam servir como um alerta precoce para que a sociedade humana dedique mais esforços para entender e avaliar os riscos potenciais dos sistemas de IA de ponta e forme uma sinergia internacional para desenvolver salvaguardas de segurança eficazes o mais rápido possível.”
Nenhum comentário:
Postar um comentário