
Modelos mentais e antipadrões
Os modelos mentais são um conceito importante na UX e design de produtomas precisam ser mais prontamente adotados pela comunidade de IA. Num certo nível, os modelos mentais muitas vezes não aparecem porque são padrões rotineiros das nossas suposições sobre um sistema de IA. Isto é algo que discutimos longamente no processo de elaboração do último quantity do Radar de tecnologia da Thoughtworksum relatório semestral baseado em nossas experiências de trabalho com clientes em todo o mundo.
Por exemplo, chamamos complacência com código gerado por IA e substituindo a programação em pares por IA generativa como duas práticas que acreditamos que os profissionais devem evitar à medida que a popularidade dos assistentes de codificação de IA continua a crescer. Ambos emergem de modelos mentais deficientes que não reconhecem como esta tecnologia realmente funciona e as suas limitações. As consequências são que quanto mais convincentes e “humanas” estas ferramentas se tornam, mais difícil será para nós reconhecer como a tecnologia realmente funciona e as limitações das “soluções” que ela nos fornece.
É claro que, para aqueles que implementam IA generativa no mundo, os riscos são semelhantes, talvez até mais pronunciados. Embora a intenção por trás de tais ferramentas seja geralmente criar algo convincente e utilizável, se tais ferramentas enganarem, enganarem ou mesmo simplesmente perturbarem os usuários, seu valor e valor evaporarão. Não é nenhuma surpresa que legislação, como a Lei de IA da UE, que exige que os criadores de falsificações profundas rotulem o conteúdo como “gerado por IA”, esteja a ser aprovada para resolver estes problemas.
Vale ressaltar que este não é um problema apenas para IA e robótica. Em 2011, nosso colega Martin Fowler escreveu sobre como certas abordagens para construindo aplicativos móveis multiplataforma pode criar um vale misterioso, “onde as coisas funcionam principalmente como… controles nativos, mas existem pequenas diferenças suficientes para confundir os usuários”.
Especificamente, Fowler escreveu algo que consideramos instrutivo: “plataformas diferentes têm maneiras diferentes de serem usadas, o que altera todo o design da experiência”. A questão aqui, aplicada à IA generativa, é que diferentes contextos e diferentes casos de uso vêm com diferentes conjuntos de suposições e modelos mentais que mudam em que ponto os usuários podem cair no vale misterioso. Essas diferenças sutis mudam a experiência ou percepção do resultado de um grande modelo de linguagem (LLM).
Por exemplo, para o investigador de medicamentos que pretende grandes quantidades de dados sintéticos, a precisão a um nível micro pode não ser importante; para o advogado que tenta obter documentação authorized, a precisão é muito importante. Na verdade, cair no vale misterioso pode ser apenas o sinal para recuar e reavaliar suas expectativas.
Mudando nossa perspectiva
O vale misterioso da IA generativa pode ser preocupante, até mesmo algo que queremos minimizar, mas também deve lembrar-nos das limitações da IA generativa – deve encorajar-nos a repensar a nossa perspectiva.
Houve algumas tentativas interessantes de fazer isso em toda a indústria. Um que se destaca é Ethan Mollick, professor da Universidade da Pensilvânia, que argumenta que a IA não deve ser entendida como um bom software program, mas sim como “pessoas muito boas”.