Falando à CTV News para uma entrevista na terça-feira, o premiado diretor foi questionado se ele acredita que a inteligência artificial poderia algum dia trazer “a extinção da humanidade”, um medo levantado até mesmo por alguns líderes da indústria.
“Eu absolutamente compartilho da preocupação deles. Eu avisei vocês em 1984 e vocês não ouviram”, disse ele, referindo-se ao seu filme ‘O Exterminador do Futuro’, que gira em torno de um assassino cibernético criado por um supercomputador inteligente conhecido como Skynet.
Cameron continuou alertando que “o armamento da inteligência artificial é o maior perigo”, acrescentando “Acho que entraremos no equivalente a uma corrida armamentista nuclear com a IA. E se não construirmos, os outros caras com certeza irão construí-lo, e então isso aumentará.”
No caso de inteligência artificial ser implantada no campo de batalha, os computadores podem se mover tão rapidamente que “os humanos não podem mais interceder”, disse o diretor, argumentando que tal tecnologia não deixaria tempo para negociações de paz ou um armistício.
“Quando você está lidando com um potencial de escalar para uma guerra nuclear, a desescalada é o nome do jogo. Tendo aquela pausa, aquele tempo limite – mas eles farão isso? As IAs não”, continuou Cameron.
O famoso cineasta emitiu avisos semelhantes no passado, dizendo que, embora a IA “possa ser muito boa”, também pode “literalmente ser o fim do mundo”. Ele chegou a dizer que “uma IA poderia ter dominado o mundo e já estar manipulando-o, mas simplesmente não sabemos”, especulando que computadores sencientes “teriam controle total sobre toda a mídia e tudo mais”.
Embora a tecnologia ainda não tenha dominado o mundo, alguns dos principais especialistas também soaram alarmes sobre a inteligência artificial. No início deste ano, gigantes da IA, incluindo OpenAI e DeepMind do Google, se uniram a acadêmicos, legisladores e empresários para emitir uma declaração pedindo para mitigar “o risco de extinção da inteligência artificial”, dizendo que deveria ser “uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.
Uma carta aberta semelhante publicada em março passado pediu uma pausa de seis meses no treinamento de poderosos sistemas de IA, dizendo que eles “devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”. Assinada por mais de 1.000 especialistas e executivos – incluindo Elon Musk e o cofundador da Apple, Steve Wozniak – a declaração alertou que a IA pode representar “riscos profundos para a sociedade e a humanidade”.
Nenhum comentário:
Postar um comentário