As pessoas no Japão tratam agentes artificiais cooperativos com o mesmo nível de respeito que fazem humanos, enquanto os americanos têm uma probabilidade significativamente maior de explorar a IA para ganho pessoal, de acordo com um novo estudo publicado em Relatórios científicos por pesquisadores da LMU Munique e da Waseda College Tóquio.
Como veículos autônomos e outros Robôs autônomos da AI Tornam -se cada vez mais integrados à vida cotidiana, as atitudes culturais em relação aos agentes artificiais podem determinar com que rapidez e sucesso essas tecnologias são implementadas em diferentes sociedades.
Divisão cultural na cooperação humana-AI
“À medida que a tecnologia autônoma se torna realidade, esses encontros cotidianos definirão como compartilhamos a estrada com máquinas inteligentes”, disse o Dr. Jurgis Karpus, pesquisador principal da LMU Munique, no estudo.
A pesquisa representa um dos primeiros exames interculturais abrangentes de como os seres humanos interagem com agentes artificiais em cenários em que os interesses nem sempre podem se alinhar. Os resultados desafiam a suposição de que a exploração do algoritmo – a tendência de tirar proveito da IA cooperativa – é um fenômeno common.
Os resultados sugerem que, à medida que as tecnologias autônomas se tornam mais prevalentes, as sociedades podem enfrentar diferentes desafios de integração com base em atitudes culturais em relação à inteligência synthetic.
Metodologia de pesquisa: a teoria dos jogos revela diferenças comportamentais
A equipe de pesquisa empregou experimentos clássicos de economia comportamental – o Jogo de confiança e o Dilema do prisioneiro– Comparar como os participantes do Japão e dos Estados Unidos interagiram com os parceiros humanos e os sistemas de IA.
Nesses jogos, os participantes fizeram escolhas entre o interesse próprio e o benefício mútuo, com incentivos monetários reais para garantir que eles estavam tomando decisões genuínas e não hipotéticas. Esse projeto experimental permitiu que os pesquisadores comparassem diretamente como os participantes tratavam os seres humanos versus a IA em cenários idênticos.
Os jogos foram cuidadosamente estruturados para replicar situações diárias, incluindo cenários de tráfego, onde os seres humanos devem decidir se devem cooperar ou explorar outro agente. Os participantes jogaram várias rodadas, às vezes com parceiros humanos e, às vezes, com os sistemas de IA, permitindo a comparação direta de seus comportamentos.
“Nossos participantes dos Estados Unidos cooperaram com agentes artificiais significativamente menores do que com os seres humanos, enquanto os participantes do Japão exibiram níveis equivalentes de cooperação com os dois tipos de co-jogador”, afirma o artigo.

Karpus, J., Shirai, R., Verba, Jt et al.
Culpa como um fator -chave nas diferenças culturais
Os pesquisadores propõem que as diferenças na culpa experiente sejam o principal fator da variação cultural observada na maneira como as pessoas tratam agentes artificiais.
O estudo descobriu que as pessoas no Ocidente, especificamente nos Estados Unidos, tendem a sentir remorso quando exploram outro humano, mas não quando exploram uma máquina. No Japão, por outro lado, as pessoas parecem experimentar a culpa da mesma forma se maltratam uma pessoa ou um agente synthetic.
O Dr. Karpus explica que, no pensamento ocidental, cortar um robô no trânsito não prejudica seus sentimentos, destacando uma perspectiva que pode contribuir para uma maior vontade de explorar máquinas.
O estudo incluiu um componente exploratório em que os participantes relataram suas respostas emocionais após os resultados do jogo. Esses dados forneceram informações cruciais sobre os mecanismos psicológicos subjacentes às diferenças comportamentais.
Respostas emocionais revelam padrões culturais mais profundos
Quando os participantes exploraram uma IA cooperativa, os participantes japoneses relataram sentir emoções significativamente mais negativas (culpa, raiva, decepção) e emoções menos positivas (felicidade, vitorioso, alívio) em comparação com seus colegas americanos.
A pesquisa constatou que os desertores que exploraram seu co-jogador de IA no Japão relataram sentir-se significativamente mais culpados do que os desertores nos Estados Unidos. Essa resposta emocional mais forte pode explicar a maior relutância entre os participantes japoneses em explorar agentes artificiais.
Por outro lado, os americanos sentiram mais emoções negativas ao explorar humanos do que a IA, uma distinção não observada entre os participantes japoneses. Para as pessoas no Japão, a resposta emocional foi semelhante, independentemente de terem explorado um agente humano ou synthetic.
O estudo observa que os participantes japoneses sentiram-se de maneira semelhante em explorar co-jogadores humanos e de IA em todas as emoções pesquisadas, sugerindo uma percepção ethical fundamentalmente diferente dos agentes artificiais em comparação com as atitudes ocidentais.
Animismo e a percepção dos robôs
Antecedentes culturais e históricos do Japão podem desempenhar um papel significativo nessas descobertas, oferecendo possíveis explicações para as diferenças observadas no comportamento em relação aos agentes artificiais e incorporado ai.
O jornal observa que a afinidade histórica do Japão por animismo E a crença de que objetos não vivos podem possuir almas no budismo levou à suposição de que o povo japonês está mais receptivo e cuidando de robôs do que indivíduos em outras culturas.
Esse contexto cultural pode criar um ponto de partida fundamentalmente diferente de como os agentes artificiais são percebidos. No Japão, pode haver menos distinção acentuada entre seres humanos e entidades não humanas capazes de interação.
A pesquisa indica que as pessoas no Japão são mais propensas do que as pessoas nos Estados Unidos a acreditar que os robôs podem experimentar emoções e estão mais dispostos a aceitar robôs como alvos do julgamento ethical humano.
Estudos mencionados no artigo sugerem uma maior tendência no Japão de perceber os agentes artificiais como semelhantes aos seres humanos, com robôs e humanos frequentemente descritos como parceiros, e não em relações hierárquicas. Essa perspectiva poderia explicar por que os participantes japoneses tratavam emocionalmente agentes artificiais e humanos com consideração semelhante.
Implicações para a adoção de tecnologia autônoma
Essas atitudes culturais podem afetar diretamente a rapidez com que as tecnologias autônomas são adotadas em diferentes regiões, com implicações econômicas e sociais potencialmente abrangentes.
O Dr. Karpus conjeta que, se as pessoas no Japão tratam os robôs com o mesmo respeito que os seres humanos, táxis totalmente autônomos podem se tornar comuns em Tóquio mais rapidamente do que em cidades ocidentais como Berlim, Londres ou Nova York.
A ânsia de explorar veículos autônomos em algumas culturas pode criar desafios práticos para sua boa integração na sociedade. Se os motoristas têm mais possibilities de cortar carros autônomos, assumir o direito de passagem ou explorar sua cautela programada, isso pode dificultar a eficiência e a segurança desses sistemas.
Os pesquisadores sugerem que essas diferenças culturais podem influenciar significativamente a linha do tempo para a adoção generalizada de tecnologias como drones de entrega, transporte público autônomo e veículos pessoais autônomos.
Curiosamente, o estudo encontrou pouca diferença na maneira como os participantes japoneses e americanos cooperaram com outros seres humanos, alinhando -se com pesquisas anteriores em economia comportamental.
O estudo observou diferença limitada na disposição dos participantes japoneses e americanos de cooperar com outros seres humanos. Essa descoberta destaca que a divergência surge especificamente no contexto da interação humano-AI, em vez de refletir diferenças culturais mais amplas no comportamento cooperativo.
Essa consistência na cooperação humana-humana fornece uma importante linha de base contra a qual medir as diferenças culturais na interação Human-AI, fortalecendo as conclusões do estudo sobre a singularidade do padrão observado.
Implicações mais amplas para o desenvolvimento da IA
Os resultados têm implicações significativas para o desenvolvimento e implantação de sistemas de IA projetados para interagir com os seres humanos em diferentes contextos culturais.
A pesquisa ressalta a necessidade crítica de considerar fatores culturais no projeto e implementação de sistemas de IA que interagem com os seres humanos. A maneira como as pessoas percebem e interagem com a IA não é common e podem variar significativamente entre as culturas.
Ignorar essas nuances culturais pode levar a consequências não intencionais, taxas de adoção mais lentas e potencial de uso indevido ou exploração de tecnologias de IA em determinadas regiões. Ele destaca a importância dos estudos transculturais na compreensão da interação humano-AI e garantindo o desenvolvimento e a implantação responsáveis da IA em todo o mundo.
Os pesquisadores sugerem que, à medida que a IA se torna mais integrada à vida cotidiana, entender essas diferenças culturais se tornará cada vez mais importante para a implementação bem -sucedida de tecnologias que exigem cooperação entre humanos e agentes artificiais.
Limitações e instruções de pesquisa futura
Os pesquisadores reconhecem certas limitações em seu trabalho que apontam para instruções para investigação futura.
O estudo se concentrou principalmente em apenas dois países-Japan e os Estados Unidos-que, enquanto fornecem insights valiosos, não podem capturar todo o espectro de variação cultural na interação humano-AI em todo o mundo. Mais pesquisas em uma gama mais ampla de culturas são necessárias para generalizar essas descobertas.
Além disso, enquanto os experimentos da teoria dos jogos fornecem cenários controlados ideais para pesquisas comparativas, eles podem não capturar completamente as complexidades das interações humano-AI do mundo actual. Os pesquisadores sugerem que a validação dessas descobertas em estudos de campo com tecnologias autônomas reais seria um próximo passo importante.
A explicação baseada em culpa e crenças culturais sobre robôs, embora apoiada pelos dados, requer investigação empírica adicional para estabelecer a causalidade definitivamente. Os pesquisadores exigem estudos mais direcionados que examinam os mecanismos psicológicos específicos subjacentes a essas diferenças culturais.
“Nossas descobertas atuais temperam a generalização desses resultados e mostram que a exploração do algoritmo não é um fenômeno transcultural”, concluem os pesquisadores.