Aumente o desempenho do processamento combinando modelos de IA


Veja como funciona uma abordagem de modelo múltiplo e como as empresas implementaram essa abordagem com sucesso para aumentar o desempenho e reduzir custos.

Aproveitar os pontos fortes de diferentes modelos de IA e reuni-los em um único aplicativo pode ser uma ótima estratégia para ajudá-lo a atingir seus objetivos de desempenho. Esta abordagem aproveita o poder de vários sistemas de IA para melhorar a precisão e a confiabilidade em cenários complexos.

No catálogo de modelos da Microsoft, existem mais de 1.800 modelos de IA disponíveis. Ainda mais modelos e serviços estão disponíveis by way of Azure OpenAI Service e Azure AI Foundry, para que você possa encontrar os modelos certos para criar sua solução de IA very best.

Vejamos como funciona uma abordagem de modelo múltiplo e exploremos alguns cenários em que as empresas implementaram essa abordagem com sucesso para aumentar o desempenho e reduzir custos.

Como funciona a abordagem de modelo múltiplo

A abordagem de modelos múltiplos envolve a combinação de diferentes modelos de IA para resolver tarefas complexas de forma mais eficaz. Os modelos são treinados para diferentes tarefas ou aspectos de um problema, como compreensão de linguagem, reconhecimento de imagem ou análise de dados. Os modelos podem trabalhar em paralelo e processar diferentes partes dos dados de entrada simultaneamente, encaminhar para modelos relevantes ou ser usados ​​de diferentes maneiras em um aplicativo.

Suponhamos que você queira emparelhar um modelo de visão ajustado com um modelo de linguagem grande para executar diversas tarefas complexas de classificação de imagens em conjunto com consultas em linguagem pure. Ou talvez você tenha um modelo pequeno ajustado para gerar consultas SQL no esquema do seu banco de dados e queira combiná-lo com um modelo maior para tarefas de uso mais geral, como recuperação de informações e assistência à pesquisa. Em ambos os casos, a abordagem de modelos múltiplos poderia oferecer-lhe a adaptabilidade para construir uma solução abrangente de IA que se adaptasse aos requisitos específicos da sua organização.

Antes de implementar uma estratégia de modelo múltiplo

Primeiro, identifique e compreenda o resultado que deseja alcançar, pois isso é elementary para selecionar e implementar os modelos de IA corretos. Além disso, cada modelo tem seu próprio conjunto de méritos e desafios a serem considerados para garantir que você escolha o modelo certo para seus objetivos. Existem vários itens a serem considerados antes de implementar uma estratégia de modelos múltiplos, incluindo:

  • A finalidade pretendida dos modelos.
  • Os requisitos do aplicativo em relação ao tamanho do modelo.
  • Treinamento e gestão de modelos especializados.
  • Os vários graus de precisão necessários.
  • Governança da aplicação e modelos.
  • Segurança e viés de modelos potenciais.
  • Custo dos modelos e custo esperado em escala.
  • A linguagem de programação correta (verifique DevQualityEval para obter informações atuais sobre os melhores idiomas para usar com modelos específicos).

O peso que você atribui a cada critério dependerá de fatores como objetivos, pilha de tecnologia, recursos e outras variáveis ​​específicas da sua organização.

Vejamos alguns cenários, bem como alguns clientes que implementaram vários modelos em seus fluxos de trabalho.

Cenário 1: Roteamento

O roteamento ocorre quando a IA e as tecnologias de aprendizado de máquina otimizam os caminhos mais eficientes para casos de uso como name facilities, logística e muito mais. Aqui estão alguns exemplos:

Roteamento multimodal para processamento diversificado de dados

Uma aplicação inovadora de processamento de múltiplos modelos é rotear tarefas simultaneamente através de diferentes modelos multimodais especializados no processamento de tipos de dados específicos, como texto, imagens, som e vídeo. Por exemplo, você pode usar uma combinação de um modelo menor como GPT-3.5 turbo, com um modelo multimodal de linguagem grande como GPT-4odependendo da modalidade. Este roteamento permite que uma aplicação processe múltiplas modalidades direcionando cada tipo de dado para o modelo mais adequado para ele, melhorando assim o desempenho geral e a versatilidade do sistema.

Roteamento especializado para domínios especializados

Outro exemplo é o roteamento de especialistas, onde os prompts são direcionados a modelos especializados, ou “especialistas”, com base na área ou campo específico referenciado na tarefa. Ao implementar o roteamento especializado, as empresas garantem que diferentes tipos de consultas dos usuários sejam tratadas pelo modelo ou serviço de IA mais adequado. Por exemplo, as perguntas de suporte técnico podem ser direcionadas a um modelo treinado em documentação técnica e tickets de suporte, enquanto as solicitações de informações gerais podem ser tratadas por um modelo de linguagem de uso mais geral.

O roteamento especializado pode ser particularmente útil em áreas como a medicina, onde diferentes modelos podem ser ajustados para lidar com determinados tópicos ou imagens. Em vez de depender de um único modelo grande, vários modelos menores, como Phi-3.5-mini-instrução e Instrução de visão Phi-3.5 podem ser usados ​​- cada um otimizado para uma área definida, como chat ou visão, para que cada consulta seja tratada pelo modelo especialista mais apropriado, aumentando assim a precisão e a relevância da saída do modelo. Essa abordagem pode melhorar a precisão da resposta e reduzir os custos associados ao ajuste fino de modelos grandes.

Fabricante de automóveis

Um exemplo desse tipo de roteamento vem de um grande fabricante de automóveis. Eles implementaram um modelo Phi para processar a maioria das tarefas básicas rapidamente e, ao mesmo tempo, encaminhar tarefas mais complicadas para um modelo de linguagem grande como GPT-4o. O modelo offline Phi-3 lida rapidamente com a maior parte do processamento de dados localmente, enquanto o modelo on-line GPT fornece o poder de processamento para consultas maiores e mais complexas. Essa combinação ajuda a aproveitar os recursos econômicos do Phi-3, garantindo ao mesmo tempo que consultas mais complexas e críticas para os negócios sejam processadas de maneira eficaz.

Sábio

Outro exemplo demonstra como casos de uso específicos do setor podem se beneficiar do roteamento especializado. A Sage, líder em contabilidade, finanças, recursos humanos e tecnologia de folha de pagamento para pequenas e médias empresas (SMBs), queria ajudar seus clientes a descobrir eficiências nos processos contábeis e aumentar a produtividade por meio de serviços baseados em IA que pudessem automatizar tarefas rotineiras e fornecer insights em tempo actual.

Recentemente, a Sage implementou o Mistral, um modelo de linguagem grande disponível comercialmente, e aperfeiçoou-o com dados específicos de contabilidade para colmatar lacunas no modelo GPT-4 utilizado no seu Sage Copilot. Esse ajuste fino permitiu que a Mistral entendesse e respondesse melhor às consultas relacionadas à contabilidade, para que pudesse categorizar as perguntas dos usuários de maneira mais eficaz e, em seguida, encaminhá-las para os agentes apropriados ou sistemas determinísticos. Por exemplo, embora o modelo de linguagem grande Mistral pronto para uso possa ter dificuldades com uma questão de previsão de fluxo de caixa, a versão ajustada poderia direcionar com precisão a consulta através de dados específicos do Sage e específicos do domínio, garantindo uma precisão precisa. e resposta relevante para o usuário.

Cenário 2: uso on-line e offline

Os cenários on-line e offline permitem os benefícios duplos de armazenar e processar informações localmente com um modelo de IA offline, bem como usar um modelo de IA on-line para acessar dados disponíveis globalmente. Nesta configuração, uma organização poderia executar um modelo native para tarefas específicas em dispositivos (como um chatbot de atendimento ao cliente), ao mesmo tempo que teria acesso a um modelo on-line que poderia fornecer dados dentro de um contexto mais amplo.

Implantação de modelo híbrido para diagnósticos de saúde

No setor da saúde, os modelos de IA poderiam ser implantados de forma híbrida para fornecer capacidades on-line e offline. Por exemplo, um hospital poderia usar um modelo de IA off-line para lidar com diagnósticos iniciais e processamento de dados localmente em dispositivos IoT. Simultaneamente, um modelo de IA on-line poderia ser empregado para acessar as pesquisas médicas mais recentes a partir de bancos de dados baseados em nuvem e revistas médicas. Enquanto o modelo offline processa as informações dos pacientes localmente, o modelo on-line fornece dados médicos disponíveis globalmente. Essa combinação on-line e off-line ajuda a garantir que a equipe possa realizar avaliações de pacientes com eficácia, ao mesmo tempo em que se beneficia do acesso aos mais recentes avanços em pesquisa médica.

Sistemas domésticos inteligentes com IA native e na nuvem

Em sistemas domésticos inteligentes, vários modelos de IA podem ser usados ​​para gerenciar tarefas on-line e offline. Um modelo de IA offline pode ser incorporado à rede doméstica para controlar funções básicas como iluminação, temperatura e sistemas de segurança, permitindo uma resposta mais rápida e permitindo que serviços essenciais operem mesmo durante interrupções na Web. Entretanto, um modelo de IA on-line pode ser utilizado para tarefas que requerem acesso a serviços baseados na nuvem para atualizações e processamento avançado, tais como reconhecimento de voz e integração de dispositivos inteligentes. Essa abordagem dupla permite que os sistemas domésticos inteligentes mantenham as operações básicas de forma independente, ao mesmo tempo que aproveitam os recursos da nuvem para obter recursos e atualizações aprimorados.

Cenário 3: Combinando modelos maiores e específicos de tarefas

As empresas que procuram optimizar a poupança de custos podem considerar combinar uma pequeno, mas poderoso SLM específico para tarefas, como Fi-3 com um modelo robusto de linguagem grande. Uma maneira de isso funcionar é implantando o Phi-3 – um dos A família de modelos de linguagem pequenos e poderosos da Microsoft com desempenho inovador a baixo custo e baixa latência — em cenários de computação de ponta ou aplicativos com requisitos de latência mais rígidos, juntamente com o poder de processamento de um modelo maior como o GPT.

Além disso, o Phi-3 poderia servir como um filtro inicial ou sistema de triagem, lidando com consultas diretas e apenas escalando solicitações mais sutis ou desafiadoras para modelos GPT. Essa abordagem em camadas ajuda a otimizar a eficiência do fluxo de trabalho e a reduzir o uso desnecessário de modelos mais caros.

Ao construir cuidadosamente uma configuração de modelos complementares de pequeno e grande porte, as empresas podem potencialmente alcançar um desempenho econômico adaptado aos seus casos de uso específicos.

Capacidade

Capacidade Mecanismo de resposta com tecnologia de IA® recupera respostas exatas para os usuários em segundos. Ao aproveitar tecnologias de IA de ponta, o Capability oferece às organizações um assistente de pesquisa de IA personalizado que pode ser dimensionado perfeitamente para todas as equipes e departamentos. Eles precisavam de uma maneira de ajudar a unificar diversos conjuntos de dados e tornar as informações mais facilmente acessíveis e compreensíveis para seus clientes. Ao aproveitar o Phi, a Capability foi capaz de fornecer às empresas uma solução eficaz de gerenciamento de conhecimento de IA que melhora a acessibilidade das informações, a segurança e a eficiência operacional, economizando tempo e complicações aos clientes. Após a implementação bem-sucedida do Phi-3-Medium, a Capability está agora testando avidamente o modelo Phi-3.5-MOE para uso na produção.

Nosso compromisso com uma IA confiável

Organizações de todos os setores estão aproveitando os recursos de IA e Copilot do Azure para impulsionar o crescimento, aumentar a produtividade e criar experiências de valor agregado.

Estamos comprometidos em ajudar as organizações a usar e construir IA que é confiávelo que significa que é seguro, privado e protegido. Trazemos as melhores práticas e aprendizados de décadas de pesquisa e construção de produtos de IA em escala para fornecer compromissos e recursos líderes do setor que abrangem nossos três pilares de segurança, privacidade e proteção. Uma IA confiável só é possível quando você combina nossos compromissos, como nossa Iniciativa para um Futuro Seguro e nossos princípios de IA Responsável, com os recursos de nossos produtos para desbloquear a transformação da IA ​​com confiança.

Comece a usar o Azure AI Foundry

Para saber mais sobre como melhorar a confiabilidade, a segurança e o desempenho de seus investimentos em nuvem e IA, discover os recursos adicionais abaixo.

  • Leia sobre Phi-3-minique tem desempenho melhor do que alguns modelos com o dobro do tamanho.



Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *