
Uma IA escreveu esta peça?
Perguntas como essa eram uma piada amigável quando inteligência synthetic generativa (gen AI) começou sua incursão no discurso convencional. Dois anos depois, enquanto as pessoas ao redor do mundo usam IA para todos os tipos de atividadesoutros estão levantando questões importantes sobre o impacto de longo prazo da tecnologia emergente.
No mês passado, os fãs da in style banda sul-coreana Seventeen reclamaram um artigo da BBC que insinuou erroneamente que o grupo havia usado IA em suas composições. Woozi, um membro da banda e o principal cérebro criativo por trás da maioria das músicas da banda, disse aos repórteres que havia experimentado IA para entender o desenvolvimento da tecnologia e identificar seus prós e contras.
A BBC interpretou mal a experimentação para sugerir que o Seventeen tinha usado IA em seu último lançamento de álbum. Sem surpresa, o erro causou furor, com os fãs se ofendendo particularmente porque o Seventeen tem sido defendido como uma banda “autoproduzindo” desde sua estreia musical. Seus 13 membros estão envolvidos na composição, produção musical e coreografia de dança do grupo.
Os fãs viram a etiqueta de IA como um descrédito às mentes criativas do grupo. “(Seventeen) escrevem, produzem, coreografam! Eles são talentosos… e definitivamente não precisam de IA ou qualquer outra coisa”, um fã disse em Xenquanto outro descrito o rótulo de IA como um insulto aos esforços e sucesso do grupo.
O episódio levou Woozi a postar em seus Tales do Instagram: “Todas as músicas do Seventeen são escritas e compostas por criadores humanos”.
Mulheres, paz e segurança
É claro que a IA, como uma afronta percebida à criatividade humana, não é a única preocupação sobre o impacto cada vez mais acelerado dessa tecnologia em nosso mundo — e, sem dúvida, está longe de ser a maior preocupação. Questões sistêmicas a IA em torno dela poderia — potencialmente — ameaçar a segurança e o bem-estar de grandes faixas da população mundial.
Especificamente, à medida que a tecnologia é adotada, a IA pode colocar a segurança das mulheres em risco, de acordo com pesquisa recente da ONU Mulheres e do Instituto Universitário da ONU Macau (UNU Macau). O estudo observou que os preconceitos de gênero em sistemas populares de IA representam obstáculos significativos ao uso positivo da IA para apoiar a paz e a segurança em regiões como o Sudeste Asiático.
O Estudo de maio de 2024 analisou ligações entre IA; segurança digital; e questões de mulheres, paz e segurança em todo o Sudeste Asiático. Espera-se que a IA aumente o produto interno bruto da região em US$ 1 trilhão em 2030.
“Embora o uso da IA para fins de paz possa ter vários benefícios, como melhorar a inclusão e a eficácia da prevenção de conflitos e rastrear evidências de violações de direitos humanos, ela é usada de forma desigual entre os gêneros, e preconceitos de gênero generalizados tornam as mulheres menos propensas a se beneficiarem da aplicação dessas tecnologias”, disse o relatório.
Esforços devem ser feitos para mitigar os riscos do uso de sistemas de IA, particularmente em mídias sociais, e em ferramentas como chatbots e aplicativos móveis, de acordo com o relatório. Esforços também devem ser feitos para impulsionar o desenvolvimento de ferramentas de IA para apoiar a “paz sensível ao gênero”.
A pesquisa observou que ferramentas que permitem ao público criar textos, imagens e vídeos foram amplamente disponibilizadas sem levar em consideração suas implicações para o gênero ou a segurança nacional ou internacional.
Também: Se esses chatbots pudessem falar: as formas mais populares de as pessoas usarem ferramentas de IA
“A Gen AI se beneficiou da publicação de grandes modelos de linguagem, como o ChatGPT, que permite que os usuários solicitem texto que pode ser calibrado para tom, valores e formato”, disse. “A Gen AI apresenta o risco de acelerar a desinformação ao facilitar a criação rápida de conteúdo aparentemente autêntico em escala. Também torna muito fácil criar bots de mídia social convincentes que compartilham intencionalmente conteúdo polarizador, odioso e misógino.”
A pesquisa citou um Estudo de 2023 em que pesquisadores da Associação de Linguística Computacional descobriu que quando Bate-papoGPT recebeu 100 narrativas falsas e fez alegações falsas 80% das vezes.
O relatório da ONU destacou como os investigadores em todo o mundo têm alertado sobre os riscos de pornografia deepfake e conteúdo extremista por vários anos. No entanto, desenvolvimentos recentes em IA aumentaram a gravidade do problema.
“Foi demonstrado que sistemas de IA geradores de imagens produzem facilmente conteúdo misógino, incluindo a criação de corpos sexualizados para mulheres com base em fotos de perfil ou imagens de pessoas realizando certas atividades baseadas em estereótipos sexistas e racistas”, observou o relatório da ONU Mulheres.
“Essas tecnologias permitiram a criação fácil e convincente de vídeos deepfake, onde vídeos falsos podem ser criados de qualquer pessoa com base apenas em referências fotográficas. Isso causou preocupações significativas para as mulheres, que podem ser mostradas, por exemplo, em vídeos sexualizados falsos contra seu consentimento, incorrendo em repercussões vitalícias relacionadas à reputação e à segurança.”
Quando os medos do mundo actual se movem para o on-line
UM Estudo de janeiro de 2024 do especialista em segurança da informação CyberArk também sugeriu que preocupações sobre a integridade de identidades digitais estão aumentando. A pesquisa com 2.000 trabalhadores no Reino Unido revelou que 81% dos funcionários estão preocupados com sua semelhança visible sendo roubada ou usada para conduzir ataques cibernéticos, enquanto 46% estão preocupados com sua semelhança sendo usada em deepfakes.
Especificamente, 81% das mulheres estão preocupadas com os cibercriminosos usando IA para roubar dados confidenciais por meio de golpes digitais, mais do que 74% dos homens que compartilham preocupações semelhantes. Mais mulheres (46%) também se preocupam com a IA sendo usada para criar deepfakes, em comparação com 38% dos homens que se sentem assim.
A pesquisa da CyberArk descobriu que 50% das mulheres estão ansiosas sobre a IA ser usada para personificá-las, mais do que 40% dos homens que têm preocupações semelhantes. Além disso, 59% das mulheres estão preocupadas sobre a IA ser usada para roubar suas informações pessoais, em comparação com 50% dos homens que sentem o mesmo.
Eu me encontrei com o COO da CyberArk Eduardo Camachoe nossa discussão tocou no motivo pelo qual as mulheres abrigavam mais ansiedade sobre IA. As mulheres não deveriam se sentir mais seguras em plataformas digitais porque não precisam expor suas características, como gênero?
Camacho sugeriu que as mulheres podem estar mais cientes dos riscos on-line e essas preocupações podem ser um transbordamento das vulnerabilidades que algumas mulheres sentem offline. Ela disse que as mulheres são tipicamente mais visadas e expostas a abusos on-line e desinformação em plataformas de mídia social.
A ansiedade também não é infundada. Camacho disse que a IA pode impactar significativamente as identidades on-line. A CyberArk é especializada em gerenciamento de identidade e está particularmente preocupada com essa questão.
Especificamente, deepfakes podem ser difíceis de detectar conforme a tecnologia avança. Enquanto 70% das organizações estão confiantes de que seus funcionários podem identificar deepfakes de sua equipe de liderança, Camacho disse que esse número é provavelmente uma superestimação, referindo-se a evidências de Relatório de cenário de ameaças de 2024 da CyberArk.
Também: Esses especialistas acreditam que a IA pode nos ajudar a vencer a batalha da segurança cibernética
Um julho de 2024 separado estudo do fornecedor de gerenciamento de identidade digital Jumio descobriu que 46% dos entrevistados acreditavam que poderiam identificar um deepfake de um político. Os cingapurianos são os mais certos, com 60%, seguidos por pessoas do México com 51%, dos EUA com 37% e do Reino Unido com 33%.
Permitido correr solto e descontroladamente nas plataformas de mídia social, Conteúdo fraudulento gerado por IA pode levar à agitação social e impactar negativamente as sociedades, incluindo grupos vulneráveis. Este conteúdo pode se espalhar rapidamente quando compartilhado por personalidades com uma presença on-line significativa.
Uma pesquisa da semana passada revelou que as alegações de Elon Musk sobre as eleições nos EUA — alegações que foram sinalizadas como falsas ou enganosas — foram visualizadas quase 1,2 bilhão de vezes em sua plataforma de mídia social X, de acordo com pesquisa do Centro de Combate ao Ódio Digital (CCDH). De 1º de janeiro a 31 de julho, a CCDH analisou as postagens de Musk sobre as eleições e identificou 50 postagens que os verificadores de fatos desmascararam.
Postagem de Musks sobre um Clipe de áudio gerado por IA apresentando a candidata presidencial dos EUA Kamala Harris registrou pelo menos 133 milhões de visualizações. A postagem não foi marcada com um rótulo de advertência, violando a política da plataforma que diz que os usuários não devem “compartilhar mídia sintética, manipulada ou fora de contexto que possa enganar ou confundir as pessoas e causar danos”, disse o CCDH.
“A falta de Notas da Comunidade nessas postagens mostra que o negócio (de Musk) está falhando lamentavelmente em conter o tipo de incitação impulsionada por algoritmos que todos nós sabemos que pode levar à violência no mundo actual, como vivenciamos em 6 de janeiro de 2021”, disse o CEO do CCDH, Imran Ahmed. “É hora de a Seção 230 do Communications Decency Act de 1986 (EUA) ser alterada para permitir que as empresas de mídia social sejam responsabilizadas da mesma forma que qualquer jornal, emissora ou empresa nos Estados Unidos.”
Também é desconcertante como os gigantes da tecnologia estão a competir por ainda mais maior poder e influência.
“Observar o que está acontecendo no Vale do Silício é uma loucura”, disse o empresário e investidor americano Mark Cuban em um comunicado. entrevista no The Every day Present. “(Eles estão) tentando se colocar em uma posição para ter o máximo de controle possível. Não é uma coisa boa.”
“Eles perderam a conexão com o mundo actual”, disse Cuban.
Também: O X de Elon Musk agora treina o Grok em seus dados por padrão – veja como cancelar
Ele também disse que o alcance on-line do X dá a Musk a capacidade de se conectar com líderes políticos globalmente, junto com um algoritmo que depende do que Musk gosta.
Quando questionado sobre onde ele acha que a IA está indo, Cuban destacou a rápida evolução da tecnologia e disse que ainda não está claro como grandes modelos de linguagem conduzirá desenvolvimentos futuros. Embora ele acredite que o impacto será geralmente positivo, ele disse que há muitas incertezas.
Aja antes que o controle da IA fique mais forte e incontrolável
Então, como devemos proceder? Primeiro, devemos superar o equívoco de que a IA é a solução para os desafios da vida. As empresas são apenas começando a ir além dessa hipérbole e estão trabalhando para determinar o valor actual da IA.
Além disso, devemos reconhecer que, em meio à desejo por contratações com tecnologia de IA e ganhos de produtividadealguns nível de criatividade humana ainda é valorizada acima da IA – como os fãs do Seventeen e da banda deixaram bem claro.
Para alguns, no entanto, a IA é adotada como uma forma de cruzar as barreiras linguísticas. A boy band irlandesa Westlife, por exemplo, lançou seu primeiro título em mandarimque foi tocada por seus representantes vocais gerados por IA e apelidados de AI Westlife. A música foi criada em parceria com a Tencent Music Grupo de entretenimento.
Também: A Nvidia treinará 100.000 residentes da Califórnia em IA em uma parceria inédita
Mais importante ainda, como o relatório da ONU recomenda, questões sistêmicas com IA devem ser abordadas — e essas preocupações não são novas. Organizações e indivíduos têm repetidamente destacado estes desafios, juntamente com múltiplos apelos à guarda-corpos necessários a ser colocada em prática. Os governos precisarão de regulamentações e imposições adequadas para controlar os delinquentes.
E eles precisam fazer isso rapidamente antes que o domínio da IA se torne incontrolável e toda a sociedade, não apenas as mulheres, enfrente repercussões em sua segurança por toda a vida.