Método impede que um modelo de IA tenha muita confiança em respostas erradas | MIT Information



Método impede que um modelo de IA tenha muita confiança em respostas erradas | MIT Information

As pessoas usam grandes modelos de linguagem para uma enorme variedade de tarefas, desde traduzir um artigo até identificar fraudes financeiras. No entanto, apesar das incríveis capacidades e versatilidade desses modelos, eles às vezes geram respostas imprecisas.

Além desse problema, os modelos podem ser excessivamente confiantes sobre respostas erradas ou pouco confiantes sobre respostas corretas, tornando difícil para o usuário saber quando um modelo é confiável.

Os pesquisadores normalmente calibram um modelo de machine studying para garantir que seu nível de confiança esteja alinhado com sua precisão. Um modelo bem calibrado deve ter menos confiança sobre uma previsão incorreta e vice-versa. Mas como os modelos de linguagem grande (LLMs) podem ser aplicados a uma coleção aparentemente infinita de tarefas diversas, os métodos de calibração tradicionais são ineficazes.

Agora, pesquisadores do MIT e do MIT-IBM Watson AI Lab introduziram um método de calibração adaptado a grandes modelos de linguagem. Seu método, chamado Termômetroenvolve a construção de um modelo auxiliar menor que é executado em cima de um modelo de linguagem grande para calibrá-lo.

O termômetro é mais eficiente do que outras abordagens — exigindo menos computação que consome muita energia — ao mesmo tempo em que preserva a precisão do modelo e permite que ele produza respostas mais bem calibradas em tarefas nunca vistas antes.

Ao permitir a calibração eficiente de um LLM para uma variedade de tarefas, o Thermometer pode ajudar os usuários a identificar situações em que um modelo está confiante demais sobre previsões falsas, impedindo-os de implantar esse modelo em uma situação em que ele pode falhar.

“Com o Termômetro, queremos fornecer ao usuário um sinal claro para dizer se a resposta de um modelo é precisa ou imprecisa, de uma forma que reflita a incerteza do modelo, para que eles saibam se esse modelo é confiável”, diz Maohao Shen, um estudante de pós-graduação em engenharia elétrica e ciência da computação (EECS) e autor principal de um artigo sobre termômetro.

Shen é acompanhado no artigo por Gregory Wornell, o Professor de Engenharia Sumitomo que lidera o Alerts, Data, and Algorithms Laboratory no Analysis Laboratory for Electronics, e é um membro do MIT-IBM Watson AI Lab; autor sênior Soumya Ghosh, um membro da equipe de pesquisa no MIT-IBM Watson AI Lab; assim como outros no MIT e no MIT-IBM Watson AI Lab. A pesquisa foi recentemente apresentada na Worldwide Convention on Machine Studying.

Calibração common

Como os modelos tradicionais de machine studying são tipicamente projetados para executar uma única tarefa, calibrá-los geralmente envolve um método específico da tarefa. Por outro lado, como os LLMs têm a flexibilidade de executar muitas tarefas, usar um método tradicional para calibrar esse modelo para uma tarefa pode prejudicar seu desempenho em outra tarefa.

Calibrar um LLM frequentemente envolve amostragem do modelo várias vezes para obter diferentes previsões e, então, agregar essas previsões para obter uma confiança melhor calibrada. No entanto, como esses modelos têm bilhões de parâmetros, os custos computacionais dessas abordagens aumentam rapidamente.

“Em certo sentido, grandes modelos de linguagem são universais porque podem lidar com várias tarefas. Então, precisamos de um método de calibração common que também possa lidar com muitas tarefas diferentes”, diz Shen.

Com o Thermometer, os pesquisadores desenvolveram uma técnica versátil que utiliza um método de calibração clássico chamado escala de temperatura para calibrar com eficiência um LLM para uma nova tarefa.

Neste contexto, uma “temperatura” é um parâmetro de escala usado para ajustar a confiança de um modelo para ser alinhado com sua precisão de predição. Tradicionalmente, determina-se a temperatura correta usando um conjunto de dados de validação rotulado de exemplos específicos da tarefa.

Como os LLMs são frequentemente aplicados a novas tarefas, conjuntos de dados rotulados podem ser quase impossíveis de adquirir. Por exemplo, um usuário que deseja implementar um LLM para responder a perguntas de clientes sobre um novo produto provavelmente não tem um conjunto de dados contendo tais perguntas e respostas.

Em vez de usar um conjunto de dados rotulado, os pesquisadores treinam um modelo auxiliar que é executado em cima de um LLM para prever automaticamente a temperatura necessária para calibrá-lo para essa nova tarefa.

Eles usam conjuntos de dados rotulados de algumas tarefas representativas para treinar o modelo do Termômetro, mas, depois de treinado, ele pode generalizar para novas tarefas em uma categoria semelhante sem a necessidade de dados rotulados adicionais.

Um modelo de termômetro treinado em uma coleção de conjuntos de dados de questões de múltipla escolha, talvez incluindo um com questões de álgebra e outro com questões médicas, poderia ser usado para calibrar um LLM que responderá a perguntas sobre geometria ou biologia, por exemplo.

“O objetivo aspiracional é que ele funcione em qualquer tarefa, mas ainda não chegamos lá”, diz Ghosh.

O modelo do termômetro precisa acessar apenas uma pequena parte do funcionamento interno do LLM para prever a temperatura correta que calibrará sua previsão para pontos de dados de uma tarefa específica.

Uma abordagem eficiente

Importante, a técnica não requer múltiplas execuções de treinamento e apenas desacelera um pouco o LLM. Além disso, como a escala de temperatura não altera as previsões de um modelo, o Thermometer preserva sua precisão.

Quando eles compararam o Thermometer a diversas linhas de base em múltiplas tarefas, ele produziu consistentemente medidas de incerteza mais bem calibradas, exigindo muito menos computação.

“Desde que treinemos um modelo de termômetro em um número suficientemente grande de tarefas, ele deve ser capaz de generalizar bem em qualquer nova tarefa, assim como um grande modelo de linguagem, ele também é um modelo common”, acrescenta Shen.

Os pesquisadores também descobriram que, se treinarem um modelo de termômetro para um LLM menor, ele pode ser aplicado diretamente para calibrar um LLM maior dentro da mesma família.

No futuro, eles querem adaptar o Thermometer para tarefas de geração de texto mais complexas e aplicar a técnica a LLMs ainda maiores. Os pesquisadores também esperam quantificar a diversidade e o número de conjuntos de dados rotulados que seriam necessários para treinar um modelo Thermometer para que ele possa generalizar para uma nova tarefa.

Esta pesquisa foi financiada, em parte, pelo MIT-IBM Watson AI Lab.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *