O fórum visa promover e desenvolver um padrão para avaliar a segurança da IA, ajudando governos, corporações, formuladores de políticas e o público a entender os riscos, limites e possibilidades da tecnologia, de acordo com um comunicado publicado pela Microsoft na quarta-feira.
O fórum também busca desenvolver as melhores práticas para enfrentar os “maiores desafios da sociedade”, incluindo “mitigação e adaptação às mudanças climáticas, detecção e prevenção precoce do câncer e combate às ameaças cibernéticas”.
Qualquer pessoa pode participar do fórum, desde que esteja envolvida no desenvolvimento de “modelos de fronteira” destinados a alcançar avanços na tecnologia de aprendizado de máquina e esteja comprometida com a segurança de seus projetos. O fórum pretende formar grupos de trabalho e parcerias com governos, ONGs e acadêmicos.
“As empresas que criam tecnologia de IA têm a responsabilidade de garantir que ela seja segura e permaneça sob controle humano”, disse o presidente da Microsoft, Brad Smith, em comunicado.
Os líderes intelectuais da IA têm cada vez mais pedido uma regulamentação significativa em um setor que alguns temem que possa condenar a civilização, apontando os riscos de um desenvolvimento descontrolado que os humanos não podem mais controlar. Os CEOs de todos os participantes do fórum, exceto a Microsoft, assinaram uma declaração em maio pedindo aos governos e órgãos globais que façam da “mitigação do risco de extinção da IA” uma prioridade no mesmo nível que a prevenção da guerra nuclear.
O CEO da Anthropic, Dario Amodei, alertou o Senado dos EUA na terça-feira que a IA está muito mais perto de ultrapassar a inteligência humana do que a maioria das pessoas acredita, insistindo que eles aprovem regulamentos rígidos para evitar cenários de pesadelo como a IA sendo usada para produzir armas biológicas.
Suas palavras ecoaram as do CEO da OpenAI, Sam Altman, que testemunhou perante o Congresso dos EUA no início deste ano, alertando que a IA poderia dar “muito errado”.
A Casa Branca montou uma força-tarefa de IA sob o comando da vice-presidente Kamala Harris em maio. Na semana passada, conseguiu um acordo com os participantes do fórum, bem como Meta e Inflection AI, para permitir auditorias externas para falhas de segurança, riscos de privacidade, potencial de discriminação e outros problemas antes de lançar produtos no mercado e relatar todas as vulnerabilidades aos órgãos competentes. autoridades.
Nenhum comentário:
Postar um comentário