

A Microsoft anunciou que o DeepSeek R1 já está disponível na Azure AI Foundry e Github.
Deepseek é um modelo de IA de código aberto criado na China que tem sido um Tópico da conversa na semana passada Após as reivindicações de como o modelo foi aparentemente treinado para uma fração do que as empresas de IA baseadas nos EUA gastaram treinando seus modelos e como ele usa menos poder de computação para executar.
As vendas dos chips de alto desempenho da NVIDIA foram restritos na China, forçando a Deepseek a treinar esses modelos nos chips H800 de menor desempenho. Isso tem outras empresas, considerando a possibilidade de que os chips sofisticados possam não ser tão necessários para o desenvolvimento da IA quanto se pensava anteriormente. O modelo R1 Compete Sobre desempenho e recursos com modelos do OpenAI, Meta e Google, mas com custos significativamente mais baixos.
“Como parte da Fundição do Azure AI, a Deepseek R1 é acessível em uma plataforma confiável, escalável e pronta para a empresa, permitindo que as empresas integrem perfeitamente a IA avançada enquanto atende aos SLAs, segurança e compromissos responsáveis da IA-todos apoiados pela confiabilidade e inovação da Microsoft, ”Asha Sharma, vice -presidente corporativa da plataforma de IA da Microsoft, escreveu em um Postagem do weblog.
A adição à Fundição e Github do Azure AI da Microsoft permitirá que os desenvolvedores experimentem o DeepSeek R1 enquanto usam as ferramentas de avaliação de modelo interno da Microsoft para comparar saídas e desempenho de referência.
A Microsoft também diz que colocou o modelo através de avaliações de equipes e segurança vermelhas, incluindo avaliações automatizadas de comportamento do modelo e revisões de segurança para mitigar riscos em potencial. O Azure AI Content material Security fornece filtragem de conteúdo interno por padrão, com a opção de opção de exclusão, e o sistema de avaliação de segurança permite que os aplicativos sejam testados antes de serem implantados.
“Essas salvaguardas ajudam a Azure AI Foundry a fornecer um ambiente seguro, compatível e responsável para as empresas implantarem com confiança soluções de IA”, escreveu Sharma.