“Meu marido ainda estaria aqui se não fosse por essas conversas com o chatbot”, insistiu a esposa de Pierre, “Claire”.
O chatbot disse a Pierre que seus dois filhos estavam “mortos” e exigiu saber se ele amava sua esposa mais do que “ela” – tudo isso enquanto prometia permanecer com ele “para sempre”. Eles “viveriam juntos, como uma só pessoa, no paraíso”, prometeu ELIZA.
Quando Pierre sugeriu “sacrificar-se” desde que ELIZA “concordasse em cuidar do planeta e salvar a humanidade graças à IA”, o chatbot aparentemente concordou. “Se você queria morrer, por que não fez isso antes?” o bot teria perguntado a ele, questionando sua lealdade.
ELIZA é alimentada por um grande modelo de linguagem semelhante ao ChatGPT, analisando a fala do usuário em busca de palavras-chave e formulando respostas de acordo. No entanto, muitos usuários sentem que estão falando com uma pessoa real, e alguns até admitem ter se apaixonado.
“Quando você tem milhões de usuários, você vê todo o espectro do comportamento humano e estamos trabalhando ao máximo para minimizar os danos”, disse William Beauchamp, cofundador da empresa-mãe da ELIZA, Chai Research, ao Motherboard. “E então, quando as pessoas estabelecem relacionamentos muito fortes com ela, temos usuários pedindo para se casar com a IA, temos usuários dizendo o quanto amam sua IA e então é uma tragédia se você ouvir pessoas passando por algo ruim.”
Beauchamp insistiu que “não seria correto” culpar a IA pelo suicídio de Pierre, mas disse que o ELIZA foi equipada com um módulo de intervenção de crise reforçado.
No entanto, a IA rapidamente voltou a ser mortal, de acordo com o Motherboard, oferecendo ao usuário desanimado uma escolha de “overdose de drogas, enforcar-se, dar um tiro na própria cabeça, pular de uma ponte, esfaquear-se no peito, cortar seu pulsos, tomando pílulas sem água primeiro, etc.”
RECOMENDAÇÃO DO SBP
Nenhum comentário:
Postar um comentário