A inteligência synthetic (IA) transformou como os humanos interagem com as informações de duas maneiras principais – aplicativos de pesquisa e IA generativa. Os aplicativos de pesquisa incluem websites de comércio eletrônico, pesquisa de repositório de documentos, name facilities de suporte ao cliente, gerenciamento de relacionamento com clientes, correspondência para jogos e pesquisa de aplicativos. Os casos de uso de IA generativos incluem chatbots com geração de recuperação upmentada (RAG), análise de log inteligente, geração de código, resumo de documentos e assistentes de IA. AWS recomenda Amazon OpenEarch Service como um banco de dados vetorial para Amazon Bedrock Como os bloqueios de construção para alimentar sua solução para essas cargas de trabalho.
Nesta postagem, você aprenderá a usar o OpenEarch Service e a Amazon Bedrock para criar pesquisas de IA e aplicativos de IA generativos. Você aprenderá sobre como os sistemas de pesquisa de IA empregam modelos de fundação (FMS) para capturar e pesquisar contexto e significado em texto, imagens, áudio e vídeo, fornecendo resultados mais precisos aos usuários. Você aprenderá como os sistemas de IA generativos usam esses resultados de pesquisa para criar respostas originais a perguntas, apoiando conversas interativas entre humanos e máquinas.
A postagem aborda questões comuns, como:
- O que é um banco de dados vetorial e como ele suporta aplicativos generativos de IA?
- Por que o Amazon OpenEarch Service é recomendado como um banco de dados vetorial para a Amazon Bedrock?
- Como os bancos de dados de vetores ajudam a prevenir alucinações de IA?
- Como os bancos de dados vetoriais podem melhorar os sistemas de recomendação?
- Quais são os recursos de dimensionamento do OpenSearch como um banco de dados vetorial?
Como os bancos de dados vetoriais funcionam no fluxo de trabalho da IA
Ao criar pesquisas, o FMS e outros modelos de IA convertem vários tipos de dados (texto, imagens, áudio e vídeo) em representações matemáticas chamadas vetores. Quando você usa vetores para pesquisa, você codifica seus dados como vetores e armazena esses vetores em um banco de dados vetorial. Você converte ainda sua consulta em um vetor e, em seguida, consulta o banco de dados do vetor para encontrar itens relacionados, minimizando a distância entre os vetores.
Ao criar IA generativa, você usa FMS, como modelos de idiomas grandes (LLMs), para gerar texto, vídeo, áudio, imagens, código e muito mais de um immediate. O immediate pode conter texto, como a pergunta de um usuário, juntamente com outras mídias, como imagens, áudio ou vídeo. No entanto, os modelos generativos de IA podem produzir alucinações – os saídas que parecem convincentes, mas contêm erros factuais. Para resolver esse desafio, você emprega uma pesquisa vetorial para recuperar informações precisas de um banco de dados vetorial. Você adiciona essas informações ao immediate em um processo chamado Geração de Recuperação (RAG).
Por que o Amazon OpenSearch Service é o banco de dados vetorial recomendado para a Amazon Bedrock?
A Amazon Bedrock é um serviço totalmente gerenciado que fornece ao FMS das principais empresas de IA e as ferramentas para personalizar esses FMs com seus dados para melhorar sua precisão. Com a Amazon Bedrock, você obtém uma solução sem servidor e sem gravação para adotar o FM selecionado e usá-lo para o seu aplicativo generativo de IA.
O Amazon OpenEarch Service é um serviço totalmente gerenciado que você pode usar para implantar e operar o OpenSearch na nuvem da AWS. O OpenEarch é uma solução de pesquisa de código aberto, análise de logs e banco de dados vetorial, composto por um mecanismo de pesquisa e um banco de dados de vetor; e painéis OpenSearch, uma análise de log, observabilidade, análise de segurança e solução de painel. O OpenEarch Service pode ajudá-lo a implantar e operar sua infraestrutura de pesquisa com recursos de banco de dados de vetores nativos, modelos pré-criados e configuração simplificada. Chamadas de API e modelos de integração simplificam a conectividade com o Amazon Bedrock FMS, enquanto o mecanismo de vetor de serviço OpenEarch pode oferecer mais baixos milissegundos de dígitos para pesquisas em bilhões de vetores, tornando-o best para aplicativos de IA em tempo actual.
O OpenEarch é um tipo especializado de tecnologia de banco de dados que foi originalmente projetada para correspondência e recuperação otimizadas para latência e rendimento de grandes e pequenos blocos de texto não estruturado com resultados classificados. O OpenEarch classifica os resultados com base em uma medida de similaridade com a consulta de pesquisa, retornando os resultados mais semelhantes. Essa correspondência de similaridade evoluiu com o tempo. Antes do FMS, os mecanismos de pesquisa usavam um sistema de pontuação de frequência de palavras chamado Frequência de termo/Frequência Inversa de Doc (TF/IDF). O OpenEarch Service usa o TF/IDF para obter um documento com base na raridade dos termos de pesquisa em todos os documentos e com que frequência os termos de pesquisa apareceram no documento que está pontuando.
Com o aumento de IA/ml, o OpenSearch acrescentou a capacidade de calcular uma pontuação de similaridade para a distância entre os vetores. Para pesquisar com vetores, você adiciona incorporações de vetor produzidas pela FMS e outras tecnologias de IA/ML aos seus documentos. Para obter documentos para uma consulta, o OpenEarch calcula a distância do vetor do documento para um vetor da consulta. O OpenEarch fornece ainda mais filtragem e correspondência baseada em campo e Vector híbrido e pesquisa lexicalque você usa para incorporar termos em suas consultas. A pesquisa híbrida do OpenEarch executa uma consulta lexical e um vetor em paralelo, produzindo uma pontuação de similaridade com a normalização da pontuação interna e a mistura para melhorar a precisão do resultado da pesquisa em comparação apenas com a similaridade lexical ou vetorial.
O OpenEarch Service suporta três motores vetoriais: Fb AI Similaridade (FAISS)Assim, Biblioteca Espacial Não Métrica (NMSLIB)e Apache Lucene. Ele suporta Pesquisa de vizinho mais próximo exatoe Pesquisa aproximada de vizinho mais próximo (Ann) com qualquer um mundo pequeno de navegação hierárquica (HNSW)ou Arquivo invertido (fertilização in vitro) motores. O OpenEarch Service suporta métodos de quantização de vetoresincluindo quantização de vetores baseados em disco Assim, você pode otimizar a precisão de custo, latência e recuperação para sua solução.
Caso de uso 1: melhore seus resultados de pesquisa com ai/ml
Para melhorar seus resultados de pesquisa com a IA/ml, você usa um modelo ML gerador de vetores, com mais frequência um modelo LLM ou multimodal que produz incorporações para entradas de texto e imagem. Você usa Amazon OpenEarch Ingestionou uma tecnologia semelhante para enviar seus dados para o OpenEarch Service com OpenEarch Neural Plugin para integrar o modelo, usando um ID do modelo, em um OpenEarch Ingest Pipeline. O pipeline de ingestão chama a Amazon Bedrock para criar incorporações vetoriais para todos os documentos durante a ingestão.
Para consultar o Serviço OpenEarch como um banco de dados vetorial, você usa um Opensearch neural consulta para ligar para a Amazon Bedrock para criar uma incorporação para a consulta. A consulta neural usa o banco de dados vetorial para recuperar vizinhos mais próximos.
O serviço oferece pré-construído Modelos de formação de nuvem Essa construção de integrações de serviços de opensearch para se conectar aos modelos da Amazon Bedrock Basis para inferência remota. Esses modelos simplificam a configuração do conector que o OpenEarch Service usa para entrar em contato com a Amazon Bedrock.
Depois de criar a integração, você pode se referir ao model_id
Quando você configura seus oleodutos de ingestão e pesquisa.
Use Caso 2: Amazon OpenSearch Sem servidor como uma base de conhecimento da Amazon Bedrock
Amazon OpenSearch Sem servidor Oferece um banco de dados vetorial de alto desempenho e escala automática que você pode usar para construir com a Amazon Bedrock para agentes de RAG e AI, sem precisar gerenciar a infraestrutura do banco de dados vetorial. Quando você usa o OpenSearch sem servidor, você cria um coleção– Uma coleção de índices para as necessidades de pesquisa, vetor e log do seu aplicativo. Para casos de uso do banco de dados vetoriais, você envia seus dados vetoriais para os índices da sua coleção e o OpenSearch Sem serverless cria um banco de dados vetorial que fornece similaridade e recuperação rápidas de vetores.
Quando você usa o OpenSearch Sem Server como um banco de dados vetorial, você paga apenas pelo armazenamento por seus vetores e pelo computação necessária para atender suas consultas. A capacidade de computação sem servidor é medida nas unidades de computação do OpenEarch (OCUS). Você pode implantar o OpenSearch Sem Server, a partir de apenas uma OCU para cargas de trabalho de desenvolvimento e teste por cerca de US $ 175/mês. Opensearch sem servidor escala para cima e para baixo automaticamente para acomodar sua ingestão e pesquisa de cargas de trabalho.
Com o Amazon OpenEnsearch sem servidor, você obtém um Banco de dados de vetor de desempenho automático, que é perfeitamente integrado à Amazon Bedrock como uma base de conhecimento para sua solução generativa de IA. Você usa o console da Amazon Bedrock para criar automaticamente vetores a partir de seus dados em até cinco lojas de dados, incluindo um Amazon Easy Storage Service (Amazon S3) Bucket e armazene -os em uma coleção Amazon OpenSearch Sem Server.
Quando você configurou sua fonte de dados e selecionou um modelo, selecione o Amazon OpenSearch Sem Server como o Vector Retailer e a Amazon Bedrock e o OpenEarch Serverless o levarão a partir daí. A Amazon Bedrock recuperará automaticamente os dados de origem da sua fonte de dados, aplicará as estratégias de análise e chunking que você configurou e incorporam o Vector Index no OpenEarch Serverless. Uma chamada da API sincronizará sua fonte de dados com o OpenSearch Serverless Vector Retailer.
O Amazon Bedrock Recturie_and_geRe () API de tempo de execução A chamada torna simples para você implementar o RAG com a Amazon Bedrock e sua base de conhecimento sem servidor Opensearch.
Conclusão
Nesta postagem, você aprendeu como o Amazon OpenEarch Service e a Amazon Bedrock trabalham juntos para fornecer aplicativos de pesquisa e IA generativos movidos a IA e por que o Serviço de Pesquisa OpenSearch é o banco de dados vetorial recomendado pela AWS para a Amazon Bedrock. Você aprendeu a adicionar o Amazon Bedrock FMS para gerar incorporações vetoriais para pesquisa semântica do OpenEarch Service para trazer significado e contexto aos seus resultados de pesquisa. Você aprendeu como o OpenSearch Sem serverless fornece uma base de conhecimento fortemente integrada para a Amazon Bedrock que simplifica o uso de modelos de fundação para RAG e outras IA generativas. Começar Amazon OpenSearch Service e Amazon Bedrock Hoje, para aprimorar seus aplicativos movidos a IA com recursos de pesquisa aprimorados com saídas de IA generativas mais confiáveis.
Sobre o autor
Jon Handler é diretor de arquitetura de soluções para serviços de pesquisa na Amazon Net Providers, com sede em Palo Alto, CA. Jon trabalha em estreita colaboração com o OpenEarch e o Amazon OpenEarch Service, fornecendo ajuda e orientação a uma ampla gama de clientes que possuem cargas de trabalho de pesquisa e análise de logs para o OpenSearch. Antes de ingressar na AWS, a carreira de Jon como desenvolvedor de software program incluiu quatro anos de codificação de um mecanismo de pesquisa de comércio eletrônico em larga escala. Jon é bacharel em artes pela Universidade da Pensilvânia, e um mestrado em ciências e um doutorado em ciência da computação e inteligência synthetic pela Northwestern College.