A CIA está construindo um chatbot de IA para aprimorar as capacidades de vigilância da comunidade de inteligência dos EUA, revelou o chefe da divisão Open Source Enterprise da agência, Randy Nixon, à Bloomberg em entrevista na terça-feira, 26 de setembro.
A ferramenta será supostamente usada para melhorar o acesso e a análise da chamada inteligência de código aberto, um termo que se expandiu para incluir grandes volumes de informações de localização geradas por smartphones e outros dados confidenciais de consumidores adquiridos em mercados privados que vendem apenas para governos. Todas as informações que o bot fornecer incluirão sua fonte original, disse Nixon ao canal, até mesmo respostas às perguntas subsequentes dos agentes.
“Nossa coleção pode continuar a crescer cada vez mais, sem outras limitações além de quanto custam as coisas”, vangloriou-se Nixon, argumentando que a ferramenta iria satisfazer uma necessidade crítica não atendida. “Passamos de jornais e rádio para jornais e televisão, para jornais e televisão a cabo, para internet básica, para big data, e isso continua”, continuou ele.
"Temos que encontrar as agulhas, não no palheiro, mas no mar de agulhas."
Nixon deu a entender que a ferramenta estaria “em breve” disponível para todas as 18 agências de inteligência dos EUA, embora os decisores políticos e o público fiquem de fora. Ele insistiu que a CIA segue de perto as leis de privacidade dos EUA, que proíbem a agência de vigiar americanos dentro do país, embora isso não a tenha impedido anteriormente de executar um programa doméstico de coleta de dados em massa semelhante ao da NSA por pelo menos uma década e supostamente ocultá-lo de Congresso.
Nixon não disse se algum dos chatbots de IA existentes – todos conhecidos por terem problemas em distinguir factos de ficção – será usado como base para a versão proprietária da agência ou se um deles está a ser construído do zero. No entanto, apesar dos voos de fantasia a que os chatbots atuais estão sujeitos, ele sugeriu que as investigações deveriam ser rapidamente conduzidas pela ferramenta, explicando que isso moveria os agentes para um sistema “onde as máquinas lhe enviam as informações corretas” e resumindo os valores de dados demasiado grande para que os humanos possam trabalhar eficazmente – e demasiado grande para que o trabalho do bot seja devidamente verificado.
A CIA já trabalha em estreita colaboração com a maioria dos grandes players da tecnologia, incluindo Google e Microsoft, que lançaram seus próprios bots de IA do tipo ChatGPT no início deste ano. Embora o desenvolvedor do ChatGPT, OpenAI, afirme ter um código ético que proíbe a participação em operações governamentais de “alto risco”, a empresa bloqueou investigações sobre supostas parcerias governamentais, levantando questões sobre a seriedade com que esse código é levado.
Desde o mês passado, uma força-tarefa do Departamento de Defesa vem buscando uma maneira de transformar em armas grandes modelos de linguagem, como o ChatGPT, sem cometer violações óbvias de privacidade.
Nenhum comentário:
Postar um comentário