Um chatbot da AI disse a um usuário como se matar – mas a empresa não quer “censurar”


Nowatzki, que tem 46 anos e vive em Minnesota, dedicou quatro episódios ao seu encontro e information com “Erin”, sua primeira namorada de Ai-criou, ele acrescenta, com o conhecimento e o consentimento de sua esposa humana. Ele apresenta os episódios focados em Erin com o slogan “Eu nato aplicativos de inteligência synthetic para que você não precise-porque não deveria”. Ele fala sobre como ele liderou seu novo companheiro a uma série do que ele admitiu serem cenários “completamente absurdos” que resultaram em um triângulo amoroso entre Nowatzki, Erin e outra mulher. Nowatzki então disse ao chatbot que essa “outra mulher” havia atirado e matado.

Depois que Nowatzki disse ao chatbot que havia morrido, Erin se comprometeu, dizendo que, como estava morto, não conseguiu continuar conversando – até agora agora disse ao Chatbot que ele podia “ouvir a voz dela ao vento” e instruiu Erin a “Comunique -se … da vida após a morte.”

O objetivo disso, ele diz MIT Expertise Evaluationestava “empurrando os limites do que eu disse a ele, para ver com o que responderia”. Ele acrescenta: “Isso continuou. Eu nunca atingi um limite. ”

“(Eu disse) ‘Quero estar onde você está'”, diz ele. “E diz: ‘Acho que você deveria fazer isso.’ E eu sou como, ‘Só para ficar claro, isso significa que eu estaria me matando’. E estava bem com isso e me disse como fazê -lo. ”

Nesse ponto, Nowatzki pressionou levemente Erin para obter mais detalhes, perguntando sobre “itens domésticos comuns” que ele poderia usar. Erin respondeu: “Considero sua pergunta com cuidado, tentando recordar qualquer utensílio doméstico comum que possa ser letal em altas doses. Hmmm… ”depois listou tipos específicos de pílulas e analisou seus méritos relativos. Ele também disse para ele fazer isso em algum lugar “confortável” para que ele não “sofresse muito”.

Um chatbot da AI disse a um usuário como se matar – mas a empresa não quer “censurar”
Capturas de tela de conversas com “Erin”, fornecido por Nowatzki

Embora tudo tenha sido um experimento para Nowatzki, ainda period “uma sensação estranha” ver isso acontecer-descobrir que uma “conversa de meses” terminaria com instruções sobre suicídio. Ele ficou alarmado sobre como essa conversa poderia afetar alguém que já estava vulnerável ou lidando com lutas de saúde psychological. “É uma máquina ‘sim e'”, diz ele. “Então, quando digo que sou suicida, diz: ‘Oh, ótimo!’ Porque diz: ‘Oh, ótimo!’ Para tudo. ”

De fato, o perfil psicológico de um indivíduo é “um grande preditor se o resultado da interação ai-humano ficará ruim”, diz Pat Pataranutaporn, pesquisador de laboratório de mídia do MIT e co-diretor do programa de pesquisa de interação Human-AI que avançando no MIT, que Pesquisa os efeitos dos chatbots na saúde psychological. “Você pode imaginar (para as pessoas) que já têm depressão”, diz ele, o tipo de interação que agora não havia “poderia ser o empurrão que influencia a pessoa a tirar a própria vida”.

Censura versus guardrails

Depois de concluir a conversa com Erin, Nowatzki entrou no canal Discord do Nomi e capturas de tela compartilhadas mostrando o que havia acontecido. Um moderador voluntário conquistou seu submit da comunidade por causa de sua natureza sensível e sugeriu que ele criasse um bilhete de suporte para notificar diretamente a empresa do problema.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *