

As empresas de software program estão constantemente tentando adicionar mais e mais recursos de IA às suas plataformas, e pode ser difícil acompanhar tudo. Escrevemos esse resumo para compartilhar atualizações de 10 empresas notáveis que recentemente aprimoraram seus produtos com a IA.
OpenAI anuncia a pré-visualização da pesquisa do GPT-4.5
O OpenAI está chamando o GPT-4.5 de “Maior e Melhor Modelo de Chat até o momento”. O modelo mais recente foi treinado usando dados de modelos menores, o que melhora a direção, a compreensão das nuances e a conversa pure, de acordo com a empresa.
Em comparação com O1 e O3-mini, esse modelo é um modelo de uso mais geral e, diferentemente do O1, o GPT-4.5 não é um modelo de raciocínio, por isso não pensa antes de responder.
“Acreditamos que o raciocínio será uma capacidade central de modelos futuros e que as duas abordagens para escalar-treinamento e raciocínio-se complementarão. À medida que modelos como o GPT -4.5 se tornam mais inteligentes e mais experientes através do pré-treinamento, eles servirão como uma base ainda mais forte para agentes de raciocínio e uso de ferramentas ”, escreveu a empresa em um publicar.
Liberações antrópicas Claude 3,7 sonetos e código Claude
Antrópico fez dois maiores anúncios Nesta semana: o lançamento do Claude 3.7 Sonnet e uma visualização de pesquisa para uma ferramenta de codificação agêntica chamada Claude Code.
Claude Sonnet é o modelo de custo médio e desempenho da empresa, entre os modelos Haiku menores e os modelos de Opus mais poderosos.
De acordo com o Anthropic, Claude 3,7 soneto é o modelo mais inteligente da empresa até agora e o “primeiro modelo de raciocínio híbrido no mercado”. Produz respostas próximas e possui um modo de pensamento estendido, onde pode fornecer ao usuário detalhes passo a passo de como chegou às suas respostas.
A empresa também anunciou uma visualização de pesquisa para o Claude Code, que é uma ferramenta de codificação Agentic. “O CAUDE CODE é um colaborador ativo que pode pesquisar e ler código, editar arquivos, escrever e executar testes, comprometer e empurrar código no github e usar ferramentas de linha de comando – mantendo você no loop a cada etapa”, escreveu Anthropic em a em a Postagem do weblog.
Gemini 2.0 Flash-Lite agora geralmente disponível
Google tem anunciado Esse flash-Lite Gemini 2.0 já está disponível no aplicativo Gemini para uso da produção no Google AI Studio ou no Vertex AI para clientes corporativos.
De acordo com o Google, este modelo apresenta um melhor desempenho nos benchmarks de raciocínio, multimodal, matemática e factualidade em comparação com Gemini 1.5 Flash.
Google para oferecer versão gratuita do Código Gemini Help
Google também anunciado que está lançando uma versão gratuita do Gemini Code Help, que é um assistente de codificação de AI.
Agora, na pré-visualização do público, o Código Gemini Help for Indivleds fornece acesso gratuito a um modelo Gemini 2.0 ajustado para codificar no código do Visible Studio e no JetBrains IDES. O modelo foi treinado em uma variedade de casos de uso de codificação do mundo actual e suporta todas as linguagens de programação no domínio público.
O assistente oferece uma interface de bate -papo que está ciente do código existente de um desenvolvedor, fornece conclusão automática de código e pode gerar e transformar funções ou arquivos completos.
A versão gratuita tem um limite de 6.000 solicitações relacionadas ao código e 240 solicitações de bate-papo por dia, o que o Google diz ser aproximadamente 90 vezes mais do que outros assistentes de codificação no mercado hoje. Ele também possui uma janela de contexto de 128.000 token de entrada, que permite aos desenvolvedores usar arquivos maiores e aterrar o assistente com conhecimento sobre suas bases de código.
Microsoft anuncia Phi-4-Multimodal e Phi-4-Mini
Phi-4-Multimodal pode processar entradas de fala, visão e texto ao mesmo tempo, enquanto o PHI-4-mini é otimizado para tarefas baseadas em texto.
De acordo com MicrosoftPhi-4-Multimodal aproveita as técnicas de aprendizado cruzadas para permitir que ele compreenda e raciocine em várias modalidades diferentes de uma só vez. Também é otimizado para execução no dispositivo e uma sobrecarga computacional reduzida.
O PHI-4-mini é um modelo de parâmetros de 3,8b projetado para velocidade e eficiência, enquanto ainda supera modelos maiores em tarefas baseadas em texto, como raciocínio, matemática, codificação, seguinte a instrução e chamado de funções.
Os novos modelos estão disponíveis no Azure AI Foundry, Huggingface e no catálogo da NVIDIA API.
Os modelos de granito da próxima geração da IBM estão agora disponíveis
IBM lançou o Modelos de próxima geração Em sua família de granito: Granite 3.2 8b Instruct, Granite 3.2 2b Instruct, Granite Imaginative and prescient 3.2 2b, granite-timeries-ttm-r2.1, granito-empate-30m Sparse e novos tamanhos de modelo para Granite Guardian 3.2.
Granito 3.2 8b Instruct and Granite 3.2 2b Instruct Fornece a cadeia de raciocínio de pensamento que pode ser ativado e desativado.
“O lançamento do Granite 3.2 marca apenas o início das explorações da IBM em recursos de raciocínio para os modelos corporativos. Grande parte de nossa pesquisa em andamento visa tirar proveito do processo de pensamento inerentemente mais longo e mais robusto de granito 3.2 para otimização de modelos adicionais ”, escreveu a IBM em um Postagem do weblog.
Todos os novos modelos de granito 3.2 estão disponíveis para abraçar o rosto sob a licença Apache 2.0. Além disso, alguns dos modelos são acessíveis através do IBM Watsonx.ai, Ollama, Replique e LM Studio.
Anuncia precisamente atualizações para o Knowledge Integrity Suite
O Knowledge Integrity Suite é um conjunto de serviços que ajudam as empresas a garantir a confiança em seus dados e o Última lançamento Inclui vários recursos de IA.
O novo gerente de IA permite que os usuários registrem LLMs no conjunto de integridade de dados para garantir que eles cumpram os requisitos da empresa, oferecem a capacidade de escalar o uso de IA usando LLMs externos com processamento tratado pela mesma infraestrutura em que o LLM está ativado e usa a IA generativa para criar descrições de ativos de catálogo.
Outras atualizações no lançamento incluem pontuações de qualidade de dados baseadas em função, novos recursos de governança, um novo conector de floco de neve e novas métricas para entender a latência.
Warp libera seu terminal movido a IA no Home windows
Urdidura Permite que os usuários naveguem no terminal usando a linguagem pure, alavancando os comandos salvos de um usuário, o contexto da base de código, em que shell eles estão e suas ações anteriores para fazer recomendações.
Ele também possui um modo de agente que pode ser usado para depurar erros, corrigir o código e resumir logs e tem o poder de executar automaticamente comandos.
Ele já estava disponível no Mac e Linux, e a empresa disse que o suporte ao Home windows foi o recurso mais solicitado no ano passado. Ele suporta PowerShell, WSL e Git Bash e será executado em arquiteturas X64 ou ARM64.
O MongoDB adquire a Voyage AI para seus modelos de incorporação e reanganização
MongoDB tem anunciado Ele está adquirindo a Voyage AI, uma empresa que fabrica modelos de incorporação e reranquilidade.
Essa aquisição permitirá que os clientes da MongoDB criem aplicativos confiáveis de IA usando dados armazenados em bancos de dados MongoDB, de acordo com a empresa.
Segundo o MongoDB, ele integrará a tecnologia da Voyage AI em três fases. Durante a primeira fase, os modelos de incorporação e reanganização da Voyage AI ainda estarão disponíveis no web site da Voyage AI, na AWS Market e no Azure Market.
A segunda fase envolverá a integração dos modelos da Voyage AI no Atlas MongoDB, começando com um serviço de empacotamento automático para pesquisa de vetores e adicionando recursos de reranquinação e domínio nativos específicos da IA.
Durante a terceira fase, o MongoDB promoverá a recuperação movida a IA com recursos multimodais e introduzirá modelos sintonizados por instruções.
IBM anuncia a intenção de adquirir DataStax
A empresa planeja utilizar os recursos da DataStax AstRadB e DataStax Enterprise para melhorar o Watsonx.
“Nossa tecnologia combinada capturará representações mais ricas e sutis do conhecimento, levando a resultados mais eficientes e precisos. Ao aproveitar a experiência da DataStax no gerenciamento de dados não estruturados em larga escala e combinando-os com as soluções inovadoras de dados de dados da Watsonx, forneceremos dados prontos para a empresa para a IA com melhor desempenho de dados, relevância da pesquisa e eficiência operacional geral ”, escreveu IBM em um publicar.
A IBM também disse que continuará colaborando nos projetos de código aberto do DataStax Apache Cassandra, Langflow e OpenSearch.
Leia a semana passada AI anúncios Roundup aqui.