O Deepseek-R1 é um modelo aberto de última geração que, pela primeira vez, apresenta a capacidade de ‘raciocínio’ para a comunidade de código aberto. Em explicit, o lançamento também inclui a destilação dessa capacidade nos modelos LLAMA-70B e LLAMA-8B, fornecendo uma combinação atraente de velocidade, custo-efetividade e agora capacidade de ‘raciocínio’. Estamos entusiasmados em compartilhar como você pode baixar e executar facilmente os modelos Deepseek-R1-Llama destilados em modelos de IA em mosaico e nos beneficiarem de sua segurança, as melhores otimizações de desempenho da categoria e integração com a plataforma de inteligência de dados do Databricks. Agora, com esses modelos abertos de ‘raciocínio’, crie sistemas de agentes que podem ainda mais inteligentemente raciocinar seus dados.
Implantando modelos de Deepseek-R1-Distilled-Llama em Databricks
Para baixar, registrar-se e implantar os modelos Deepseek-R1-Distill-Llama em Databricks, use o pocket book incluído aquiou siga as instruções fáceis abaixo:
1. Gire a computaçãopt necessária e carregue o modelo e seu tokenizador:
Esse processo deve levar alguns minutos ao baixar 32 GB de pesos do modelo no caso do LLAMA 8B.
2. Em seguida, registre o modelo e o tokenizer como um modelo Transformers. MLFlow.Transformers simplifica os modelos de registro no catálogo de unidades – basta configurar o tamanho do seu modelo (neste caso, 8b) e o nome do modelo.
1 Utilizamos o ML Runtime 15.4 LTS e um cluster de nó único G4DN.4XLARGE para o modelo 8B e um G6E.4xlarge para o modelo 70B. Você não precisa de GPU por implantar o modelo no pocket book, desde que a computação usada tenha capacidade de memória suficiente.
3. Para servir esse modelo usando nosso mecanismo de servir de modelo altamente otimizado, basta navegar para servir e iniciar um terminal com o seu modelo registrado!
Quando o terminal estiver pronto, você poderá facilmente consultar o modelo por meio da nossa API ou usar o playground para iniciar a prototipagem de seus aplicativos.
Com o modelo de IA em mosaico, a implantação deste modelo é simples, mas poderosa, aproveitando nossas melhores otimizações de desempenho da categoria, além de integração com o Lakehouse para governança e segurança.
Quando usar modelos de raciocínio
Um aspecto único da série de modelos Deepseek-R1 é sua capacidade de cadeia de pensamento prolongada (COT), semelhante aos modelos O1 do OpenAI. Você pode ver isso em nossa interface do usuário do playground, onde a seção dobrável de “pensamento” mostra os traços de berço do raciocínio do modelo. Isso pode levar a respostas de maior qualidade, principalmente para matemática e codificação, mas com o resultado de um tokens de saída significativamente mais. Também recomendamos que os usuários sigam Deepseek’s Diretrizes de uso em interagir com o modelo.
Essas são as primeiras entradas para saber como usar modelos de raciocínio e estamos entusiasmados em ouvir quais novos sistemas de inteligência de dados nossos clientes podem construir com esse recurso. Incentivamos nossos clientes a experimentar seus próprios casos de uso e nos informar o que você encontra. Procure atualizações adicionais nas próximas semanas, à medida que nos aprofundamos no R1, no raciocínio e como criar inteligência de dados no Databricks.