quinta-feira, 27 de julho de 2023

Big Techs lançam plataforma para promover IA 'segura'


Os principais players da indústria de IA lançaram um grupo dedicado ao “desenvolvimento seguro e responsável” no campo na quarta-feira, 26 de julho. Os membros fundadores do Frontier Model Forum incluem Anthropic, Google, Microsoft e OpenAI.

O fórum visa promover e desenvolver um padrão para avaliar a segurança da IA, ajudando governos, corporações, formuladores de políticas e o público a entender os riscos, limites e possibilidades da tecnologia, de acordo com um comunicado publicado pela Microsoft na quarta-feira.

O fórum também busca desenvolver as melhores práticas para enfrentar os “maiores desafios da sociedade”, incluindo “mitigação e adaptação às mudanças climáticas, detecção e prevenção precoce do câncer e combate às ameaças cibernéticas”.

Qualquer pessoa pode participar do fórum, desde que esteja envolvida no desenvolvimento de “modelos de fronteira” destinados a alcançar avanços na tecnologia de aprendizado de máquina e esteja comprometida com a segurança de seus projetos. O fórum pretende formar grupos de trabalho e parcerias com governos, ONGs e acadêmicos.


As empresas que criam tecnologia de IA têm a responsabilidade de garantir que ela seja segura e permaneça sob controle humano”, disse o presidente da Microsoft, Brad Smith, em comunicado.

Os líderes intelectuais da IA têm cada vez mais pedido uma regulamentação significativa em um setor que alguns temem que possa condenar a civilização, apontando os riscos de um desenvolvimento descontrolado que os humanos não podem mais controlar. Os CEOs de todos os participantes do fórum, exceto a Microsoft, assinaram uma declaração em maio pedindo aos governos e órgãos globais que façam da “mitigação do risco de extinção da IA” uma prioridade no mesmo nível que a prevenção da guerra nuclear.

O CEO da Anthropic, Dario Amodei, alertou o Senado dos EUA na terça-feira que a IA está muito mais perto de ultrapassar a inteligência humana do que a maioria das pessoas acredita, insistindo que eles aprovem regulamentos rígidos para evitar cenários de pesadelo como a IA sendo usada para produzir armas biológicas.


Suas palavras ecoaram as do CEO da OpenAI, Sam Altman, que testemunhou perante o Congresso dos EUA no início deste ano, alertando que a IA poderia dar “muito errado”.

A Casa Branca montou uma força-tarefa de IA sob o comando da vice-presidente Kamala Harris em maio. Na semana passada, conseguiu um acordo com os participantes do fórum, bem como Meta e Inflection AI, para permitir auditorias externas para falhas de segurança, riscos de privacidade, potencial de discriminação e outros problemas antes de lançar produtos no mercado e relatar todas as vulnerabilidades aos órgãos competentes. autoridades.

Nenhum comentário:

Postar um comentário

SBP em pauta

DESTAQUE

COMO A MÍDIA MUNDIAL ESTÁ DIVULGANDO HISTÓRIAS FALSAS SOBRE A PALESTINA

PROPAGANDA BLITZ: HOW MAINSTREAM MEDIA IS PUSHING FAKE PALESTINE STORIES Depois que o Hamas lançou um ataque surpresa contra Israel, as forç...

Vale a pena aproveitar esse Super Batepapo

Super Bate Papo ao Vivo

Streams Anteriores

SEMPRE NA RODA DO SBP

Arquivo do blog