A ascensão do chatbot “amigos”


Você pode realmente ser amigo de um chatbot?

Se você estiver fazendo essa pergunta, provavelmente é tarde demais. Em um Reddit Thread Há um ano, um usuário escreveu que os amigos da IA ​​são “maravilhosos e significativamente melhores do que amigos de verdade (…) Seu amigo da AI nunca o quebraria ou o trairia”. Mas há também o De 14 anos de idade que morreu por suicídio depois de se apegar a um chatbot.

O fato disso algo já está acontecendo, torna ainda mais importante ter uma idéia mais nítida do que exatamente está acontecendo quando os seres humanos se enredam com essas ferramentas de “IA social” ou “AI conversacional”.

Esses amigos do chatbot são relacionados reais que às vezes dão errado (o que, é claro, acontece com os relacionamentos humanos para humanos também)? Ou quem se sente conectado a Claude inerentemente iludido?

Para responder a isso, vamos nos voltar para os filósofos. Grande parte da pesquisa é sobre robôs, mas estou reaplicando -a aqui para chatbots.

O caso contra amigos de chatbot

O caso contra é mais óbvio, intuitivo e, francamente, forte.

É comum para os filósofos definirem a amizade construindo em A teoria de Aristóteles da verdadeira amizade (ou “virtude”)que normalmente requer mutualidade, vida compartilhada e igualdade, entre outras condições.

“Tem que haver algum tipo de mutualidade – algo acontecendo (entre) ambos os lados da equação”, de acordo com Sven Nyholmprofessor de ética de IA na Universidade Ludwig Maximilian de Munique. “Um programa de computador que está operando em relações estatísticas entre insumos em seus dados de treinamento é algo bastante diferente de um amigo que nos responde de certas maneiras porque se preocupam conosco”.

Inscrever-se aqui Para explorar os grandes e complicados problemas que o mundo enfrenta e as maneiras mais eficientes de resolvê -los. Enviado duas vezes por semana.

O chatbot, pelo menos Até que se torne Sapientsó pode simular Cuidar, e a verdadeira amizade não é possível. (Pelo que vale a pena, meu editor consultou o ChatGPT sobre isso e concorda que os humanos não podem ser amigos.)

Isso é elementary para Ruby Hornsbyum candidato a doutorado na Universidade de Leeds estudando amizades de IA. Não é que os amigos da IA ​​não sejam úteis – Hornsby diz que eles certamente podem ajudar com a solidão, e não há nada inerentemente errado se as pessoas preferirem sistemas de IA em vez de humanos – mas “queremos defender a integridade de nossos relacionamentos”. Fundamentalmente, uma troca de mão única equivale a um jogo altamente interativo.

E as emoções reais que as pessoas sentem em relação aos chatbots? Ainda não é suficiente, de acordo com Hannah Kimum filósofo da Universidade do Arizona. Ela compara a situação com o “paradoxo da ficção,”, Que pergunta como é possível ter emoções reais em relação a personagens fictícios.

Os relacionamentos “são uma atividade imaginativa muito envolvida e mentalmente envolvida”, por isso não é particularmente surpreendente encontrar pessoas que se apegam a personagens fictícios, diz Kim.

Mas se alguém disse que estava em um relação com um personagem ou chatbot ficcional? Então a inclinação de Kim seria dizer: “Não, acho que você está confuso sobre o que é um relacionamento-o que você tem é um envolvimento imaginativo unidirecional com uma entidade que pode dar a ilusão de que é actual.

Problemas de preconceito e privacidade de dados e manipulação, especialmente em escala

Os chatbots, ao contrário dos humanos, são construídos por empresas, portanto, os medos sobre preconceitos e privacidade de dados que assombram outra tecnologia também se aplicam aqui. Claro, os humanos podem ser tendenciosos e manipuladores, mas é mais fácil entender o pensamento de um humano Comparado com a “caixa preta” da AI. E os seres humanos não são implantados em escala, como a IA, o que significa que somos mais limitados em nossa influência e potencial de dano. Até o ex mais sociopático só pode destruir um relacionamento de cada vez.

Os seres humanos são “treinados” por pais, professores e outros com níveis variados de habilidade. Os chatbots podem ser projetados por equipes de especialistas intenção de programá -los ser o mais recente e empático possível – a versão psicológica dos cientistas projetando o dorito perfeito Isso destrói qualquer tentativa de autocontrole.

E estes Chatbots são mais prováveis Ser usado por aqueles que já estão solitários – em outras palavras, presas mais fáceis. UM Estudo recente do Openai descobriram que o uso muito do ChatGPT “correlaciona-se com o aumento dos indicadores autorreferidos de dependência”. Think about que você está deprimido, então você constrói um relacionamento com um chatbot e, em seguida, ele começa a acertar você para as doações de campanha de Nancy Pelosi.

Você sabe como Alguns temem que homens pornográficos Não é mais capaz de se envolver com mulheres reais? “Deskilling” é basicamente essa preocupação, mas com todas as pessoas, para outras pessoas reais.

“Podemos preferir a IA em vez de parceiros humanos e negligenciar outros humanos apenas porque a IA é muito mais conveniente”, diz Anastasiia Babash da Universidade de Tartu. “Nós (podemos) exigir que outras pessoas se comportem como a IA está se comportando – podemos esperar que elas estejam sempre aqui ou nunca discordem de nós. (…) Quanto mais interagimos com a IA, mais nos acostumamos a um parceiro que não sente emoções para que possamos conversar ou fazer o que quisermos.”

Em um Artigo de 2019Nyholm e filósofo Lily Eva Frank Ofereça sugestões para mitigar essas preocupações. (O artigo deles period sobre robôs sexuais, por isso estou me adaptando ao contexto do chatbot.) Por um lado, tente tornar os chatbots uma ferramenta útil de “transição” ou treinamento para pessoas que procuram amizades da vida actual, não um substituto para o mundo exterior. E torne -se óbvio que o chatbot não é uma pessoa, talvez lembrando os usuários de que é um grande modelo de idioma.

Embora a maioria dos filósofos atualmente pense que a amizade com a IA é impossível, um dos Contra -argumentos mais interessantes vem do filósofo John Danaher. Ele começa com a mesma premissa que outros: Aristóteles. Mas ele acrescenta uma reviravolta.

Claro, os amigos do chatbot não se encaixam perfeitamente em condições como igualdade e vida compartilhada, ele escreve – mas, novamente, nem muitos amigos humanos.

“Tenho capacidades e habilidades muito diferentes quando comparadas a alguns dos meus amigos mais próximos: alguns deles têm muito mais destreza física do que eu, e a maioria é mais sociável e extrovertida”, ele escreve. “Eu também raramente me envolvo, encontro ou interajo com eles em toda a gama de suas vidas. (…) ainda acho que é possível ver essas amizades como amizades da virtude, apesar da igualdade e diversidade imperfeitas”.

Estes são requisitos de preferrred Amizade, mas se mesmo as amizades humanas não podem se esforçar, por que os chatbots devem ser mantidos nesse padrão? (Provocativamente, quando se trata de “mutualidade”, ou interesses compartilhados e boa vontade, o Danaher argumenta que isso é cumprido desde que haja “performances consistentes” dessas coisas, que os chatbots podem fazer.)

Helen Rylandum filósofo na universidade aberta, diz que podemos ser amigos agora, desde que apliquemos um “graus de amizade”Framework. Em vez de uma longa lista de condições que devem ser cumpridas, o componente essential é” boa vontade mútua “, de acordo com Ryland, e as outras partes são opcionais. Veja o exemplo de amizades on -line: eles estão faltando alguns elementos, mas, como muitas pessoas podem atestar, isso não significa que não sejam reais ou valiosos.

Essa estrutura se aplica a amizades humanas – há graus de amizade com o “amigo do trabalho” versus o “velho amigo” – e também para chatbot amigos. Quanto à alegação de que os chatbots não mostram boa vontade, ela afirma que a) esse é o viés anti-robô na conversão de ficção distópica, eb) a maioria dos robôs sociais é programada para evitar prejudicar os seres humanos.

Além de “para” e “contra”

“Devemos resistir ao determinismo tecnológico ou assumindo que, inevitavelmente, a IA social vai levar à deterioração das relações humanas”, diz o filósofo Henry Shevlin. Ele está profundamente ciente dos riscos, mas também resta muito a considerar: perguntas sobre o efeito do desenvolvimento dos chatbots, como os chatbots afetam certos tipos de personalidade e o que eles substituem?

Ainda mais abaixo estão as perguntas sobre a própria natureza dos relacionamentos: como defini -los e para que são.

Em um artigo do New York Instances sobre um Mulher “Apaixonado pelo Chatgpt”. O terapeuta sexual Marianne Brandon afirma que os relacionamentos são “apenas neurotransmissores” dentro de nossos cérebros.

“Eu tenho esses neurotransmissores com meu gato”, disse ela ao The Instances. “Algumas pessoas os têm com Deus. Isso vai acontecer com um chatbot. Podemos dizer que não é um relacionamento humano actual. Não é recíproco. Mas esses neurotransmissores são realmente a única coisa que importa, na minha mente.”

Certamente não é assim que a maioria dos filósofos o vê, e eles discordaram quando eu trouxe essa citação. Mas talvez seja hora de revisar teorias antigas.

As pessoas devem estar “pensando sobre esses” relacionamentos “, se você quiser chamá -las assim, em seus próprios termos e realmente entender que tipo de valor eles fornecem às pessoas”, diz Luke Brunningum filósofo dos relacionamentos na Universidade de Leeds.

Para ele, perguntas que são mais interessantes do que “o que Aristóteles pensaria?” Inclua: O que significa ter uma amizade que é tão assimétrica em termos de informação e conhecimento? E se for a hora de reconsiderar essas categorias e se afastar de termos como “amigo, amante, colega”? Cada AI é uma entidade única?

“Se alguma coisa pode transformar nossas teorias da amizade de cabeça para baixo, isso significa que nossas teorias devem ser desafiadas, ou pelo menos podemos olhar para ela com mais detalhes”, diz Brunning. “A pergunta mais interessante é: estamos vendo o surgimento de uma forma única de relacionamento que não temos uma compreensão actual?”

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *