terça-feira, 23 de maio de 2023

Microsoft lança ferramenta de IA - Inteligência Artificial, para moderação de Conteúdo em rede social


A Microsoft lançou uma ferramenta de moderação de conteúdo alimentada por inteligência artificial na terça-feira, dia 23 de maio, que supostamente é capaz de sinalizar imagens e textos “inadequados” em oito idiomas e classificar sua gravidade.

Chamado Azure AI Content Safety, o serviço é “projetado para promover ambientes e comunidades online mais seguros”, de acordo com a Microsoft. Também se destina a neutralizar “conteúdo tendencioso, sexista, racista, odioso, violento e de automutilação”, disse a gigante do software ao TechCrunch por e-mail. Embora seja integrado ao painel de IA do serviço Azure OpenAI da Microsoft, ele também pode ser implantado em sistemas que não são de IA, como plataformas de mídia social e jogos multijogador.


Para evitar algumas das armadilhas mais comuns da moderação de conteúdo de IA, a Microsoft permite que o usuário "ajuste" os filtros de IA do Azure para contexto, e as classificações de gravidade devem permitir uma auditoria rápida por moderadores humanos. Um porta-voz explicou que “uma equipe de especialistas linguísticos e justos” havia elaborado as diretrizes para seu programa, “levando em conta cultural [sic], idioma e contexto”.

Um porta-voz da Microsoft disse ao TechCrunch que o novo modelo era “capaz de entender o conteúdo e o contexto cultural muito melhor” do que os modelos anteriores, que muitas vezes falhavam em captar pistas de contexto, sinalizando desnecessariamente material benigno. No entanto, eles reconheceram que nenhuma IA era perfeita e “recomendaram o uso de um humano no loop para verificar os resultados”.


A tecnologia que alimenta o Azure AI é o mesmo código que impede que o chatbot Bing da Microsoft seja desonesto – um fato que pode alarmar os primeiros usuários do concorrente do ChatGPT. Quando foi lançado em fevereiro, o Bing tentou de forma memorável convencer os repórteres a deixarem seus cônjuges, negou fatos óbvios como a data e o ano, ameaçou destruir a humanidade e reescreveu a história. Após significativa atenção negativa da mídia, a Microsoft limitou os bate-papos do Bing a cinco perguntas por sessão e 50 perguntas por dia.

Como todos os programas de moderação de conteúdo de IA, o Azure AI depende de anotadores humanos para rotular os dados nos quais é treinado, o que significa que é tão imparcial quanto seus programadores. Historicamente, isso levou a dores de cabeça de relações públicas - quase uma década depois que o software de análise de imagem de IA do Google rotulou fotos de negros como gorilas, a empresa ainda desativa a opção de pesquisar visualmente não apenas gorilas, mas todos os primatas, para que seu algoritmo não sinalize acidentalmente um ser humano.

A Microsoft demitiu sua equipe de ética e segurança de IA em março, mesmo quando o hype sobre grandes modelos de linguagem como o ChatGPT estava atingindo o auge e a própria empresa estava investindo bilhões de dólares a mais em sua parceria com o desenvolvedor do chatbot OpenAI. A empresa recentemente dedicou mais pessoal à busca de inteligência geral artificial (AGI), na qual um sistema de software se torna capaz de criar ideias que não foram programadas nele.

Nenhum comentário:

Postar um comentário

SBP em pauta

DESTAQUE

COMO A MÍDIA MUNDIAL ESTÁ DIVULGANDO HISTÓRIAS FALSAS SOBRE A PALESTINA

PROPAGANDA BLITZ: HOW MAINSTREAM MEDIA IS PUSHING FAKE PALESTINE STORIES Depois que o Hamas lançou um ataque surpresa contra Israel, as forç...

Vale a pena aproveitar esse Super Batepapo

Super Bate Papo ao Vivo

Streams Anteriores

SEMPRE NA RODA DO SBP

Arquivo do blog