Tendências de radar a serem observadas: dezembro de 2024 – O’Reilly


É o fim do ano para o Radar! Esperamos que todos os nossos leitores aproveitem as férias. Aqui está uma previsão para 2025:

Este é o fim do caminho para melhorar o desempenho do LLM, aumentando o número de parâmetros ou os dados de treinamento? Ninguém sabe ainda. Independentemente da resposta, esperamos que o interesse mude para modelos menores. Relutantemente, permitiremos que o modelo de parâmetros de 70B seja qualificado como “pequeno”, mas na verdade queremos dizer parâmetros de 20B ou menos. Esses modelos serão mais fáceis de trabalhar para as empresas que desenvolvem aplicativos habilitados para IA: eles não custarão tanto para serem executados e serão mais simples de ajustar para aplicativos especializados. Muito poucas aplicações precisarão de um modelo de linguagem totalmente geral.

Aprenda mais rápido. Vá mais fundo. Veja mais longe.

Inteligência synthetic

  • O projeto OpenGPT-X tem lançado seu modelo de linguagem aberta e grande, Teuken-7B. Este modelo é significativo porque suporta 24 línguas europeias e foi concebido para estar em conformidade com a legislação europeia. Está disponível em Abraçando o rosto.
  • OLMo 2 é um modelo de linguagem pequena, totalmente aberto e recém-lançado, disponível nos tamanhos 7B e 13B. Ambas as versões reivindicam o melhor desempenho em seu grupo.
  • NVidia anunciou Fugattoum novo modelo generativo de texto para áudio que pode criar tipos de sons completamente novos. Eles o posicionam como uma ferramenta para criadores.
  • Antrópico tem anunciado a visualização do desenvolvedor de seu Protocolo de Contexto do Modelo. O MCP permite que o Claude Desktop se comunique de forma segura com outros recursos. O servidor MCP limita os serviços expostos a Claude, filtra as solicitações de Claude e evita que dados sejam expostos pela Web.
  • OpenScholar é um código aberto modelo de linguagem projetado para apoiar a pesquisa científica. É significativamente mais preciso que o GPT-4o e mais econômico de operar. Ele usa RAG para acessar um grande banco de dados de artigos científicos de acesso aberto, o que garante que as citações sejam precisas.
  • Meta fez parceria com VSParticle para criar novos materiais a partir de instruções geradas pela IA. Eles estão se concentrando em materiais nanoporosos, que poderiam ser catalisadores para a decomposição do CO2 em produtos úteis.
  • A perplexidade tem introduzido compras no aplicativo: os usuários podem pesquisar algo e fazer com que o Perplexity compre. É o primeiro exemplo amplamente disponível de um agente de IA que altera o estado do mundo físico.
  • A pesquisa mostrou que modelos generativos de IA têm seus próprios estilos distintosnão muito diferente dos escritores humanos. A análise estilística pode identificar a origem de um texto para o modelo que o gerou.
  • Mistral lançou Pixtral Grandeum modelo multimodal de parâmetros de 124B com desempenho de referência equivalente às versões mais recentes de outros modelos de fronteira.
  • da Mozilla Voz Comum O projeto coleta amostras de fala em outros idiomas além do inglês anglo-americano para ajudar os desenvolvedores a criar aplicativos habilitados para voz usando outros idiomas e dialetos. O projeto é de código aberto.
  • Interpretabilidade mecanicista é uma área de pesquisa que usa IA para examinar o que está acontecendo em cada camada de um grande modelo de linguagem. Ele fornece um caminho para a interpretabilidade da IA: a capacidade de entender por que uma IA produz qualquer resultado que gera e, possivelmente, de controlar esse resultado.
  • Os telefones Pixel do Google serão capazes de monitorar conversas telefônicas para detectar fraudes em tempo actual. O processamento ocorre inteiramente por telefone. O recurso está desativado por padrão e pode ser ativado por chamada. Outra novidade detecta stalkerware, aplicativos que coletam dados sem o consentimento ou conhecimento do usuário.
  • O conjunto de dados Widespread Corpus para treinamento de grandes modelos de linguagem já está aberto e disponível em Hugging Face. O conjunto de dados contém mais de 2T tokens retirados de fontes “permissivelmente licenciadas” e documenta a procedência de cada fonte.
  • O mais novo modelo da OpenAIOrion, é uma melhoria em relação ao GPT-4. Mas é uma melhoria significativa? Aparentemente não. Este pode ser o fim do caminho para melhorar os LLMs, tornando-os maiores. (E o Orion é GPT-5?)
  • FrontierMath é um novo benchmark de IA baseado em problemas matemáticos muito difíceis. Neste ponto, nenhum modelo de linguagem tem pontuação superior a 2% (Gemini 1.5 Professional).
  • Separando os instrumentos em uma apresentação musical é difícil, mas é possível. Aqui está uma obra-prima sem IA de processamento de sinal que tenta fazê-lo. Podemos transformar uma efficiency novamente em partituras?
  • A Inteligência Padrão lançou hertz-devum novo modelo para síntese de voz em tempo actual. Ele foi treinado exclusivamente em áudio e pode participar de conversas improvisadas sem o uso de texto.
  • da Microsoft Magentic-One é um sistema agente generalista capaz de realizar tarefas complexas. Magentic-One é código aberto para pesquisadores e desenvolvedores. A Microsoft também lançou AutoGenBenchuma ferramenta de código aberto para avaliar o desempenho de sistemas agentes.
  • ChainForge é uma nova ferramenta visible para engenharia imediata. Ele pode ser usado para testar prompts em vários modelos e avaliar a qualidade da resposta.
  • A IA estava acostumada envelhecer Tom Hanks e Robin Wright em um novo filme, permitindo que os atores interpretem seus personagens durante um período de 60 anos.
  • Antrópico tem lançado Cláudio 3.5 Haikuuma nova versão do seu modelo menor e mais rápido. A empresa afirma que o seu desempenho em muitos benchmarks é superior ao Claude 3 Opus, o seu modelo líder anterior. A Anthropic também aumentou significativamente o preço do uso do Haiku.
  • OpenAI introduziu resultados previstos. Se a saída de um immediate for amplamente conhecida com antecedência (por exemplo, se você estiver solicitando à GPT que modifique um arquivo), você poderá carregar o resultado esperado com o immediate e a GPT fará as alterações necessárias. As saídas previstas reduzem a latência; aparentemente eles não reduzem custos.
  • Felizmente, Psiquiatria de IA não tem nada a ver com a psicanálise de pacientes humanos. É uma ferramenta forense para análise autopsy de falhas de IA que permite aos investigadores recuperar o modelo exato que estava em uso quando a falha ocorreu.
  • SmolLM2 é um novo modelo de linguagem pequena, projetado para execução em dispositivos. Ele vem em versões de parâmetros 135M, 360M e 1.7B. Os primeiros relatórios dizem que seu desempenho é impressionante.
  • vLLM é uma estrutura para servir LLMs. Funciona com a maioria dos modelos de linguagem do Hugging Face. Não só afirma ser mais simples, mas também reivindicações ter benefícios significativos de desempenho e custo usando um armazenamento de valor-chave para armazenar tokens de entrada em cache.
  • Gráficos de chamas de IA mostre aos desenvolvedores o que seus modelos estão fazendo em detalhes. Se você está preocupado com desempenho ou uso de energia, eles são revolucionários.
  • do Google Projeto Jarvis é considerada a resposta da empresa à API de uso de computador da Anthropic. Jarvis assume o controle de um navegador (presumivelmente o Chrome) para executar tarefas em nome do usuário.
  • A capacidade do NotebookLM de gerar um podcast a partir de documentos é impressionante. Outros modelos podem fazer a mesma coisa? CadernoLlama é um projeto de código aberto que gera podcasts usando os modelos Llama.

Programação

  • bpftune é um utilitário que ajusta constantemente o desempenho do sistema Linux usando dados de observabilidade do BPF. Ele tem “zero configurações” (sem configuração) e baixa sobrecarga e é inteligente o suficiente para ficar longe das configurações feitas pelo administrador do sistema. Aparentemente, não usa IA.
  • Kyanos é uma nova ferramenta de análise de rede de código aberto baseada em eBPF. Por ter acesso aos dados eBPF, ele pode filtrar pacotes por processo ou por serviço, além de fornecer informações precisas sobre a latência dos pacotes.
  • VMware Fusion e VMware Workstation agora são gratuitos para todos os usuários, incluindo usuários comerciais. A Broadcom continuará a desenvolver os produtos, mas deixará de fornecer suporte para solução de problemas aos usuários.
  • Código aberto é uma família de modelos de linguagem para geração de código. É totalmente de código aberto e os dados de treinamento, o pipeline de dados, os resultados do treinamento e os protocolos de treinamento estão disponíveis além do código. Sua intenção é incentivar novas experimentações e pesquisas sobre geração de código.
  • Mergiraf é uma ferramenta para resolver conflitos de mesclagem do Git usando uma compreensão de linguagens de programação comuns (incluindo Java, Rust e Go) e formatos de arquivo (incluindo JSON, HTML, XML e YAML). Os autores afirmam que novos idiomas podem ser adicionados facilmente.
  • Foi publicada uma proposta para C++ segurouma nova versão do C++ que incorporará recursos de segurança de memória.
  • Cadeia de dados é uma biblioteca Python para trabalhar com dados estruturados no contexto de inteligência synthetic. Ele foi projetado para construir pipelines de dados e manipular dados em escala.
  • NoCode GitHub? GitHub Spark permite que os usuários criem pequenos “microaplicativos” ou faíscas, sem escrever nenhum código. O que pode ser mais importante do que nenhum código é a ausência de implantação; sparks são implantados na infraestrutura do GitHub e acessados ​​pela net.
  • Usando Git para fazer backup do diretório /and so forth do Linux é óbvio, uma vez que você pensa nisso.
  • Rator é uma estrutura de ator para Rust, o que significa que você pode programar em Rust como se fosse Erlang. Estou impressionado com o “Hi there, World” mais longo e complicado que já vi.
  • Kubernetes é um plataforma para construção de plataformas. E as plataformas precisam atender tanto as equipes de desenvolvimento quanto as de operações.
  • GitHub Copilot agora pode usar modelos diferentes de GPT. Os usuários podem selecionar Claude Sonnet ou Gemini, além de diferentes modelos OpenAI. Outros novos recursos incluem revisão automática de código, um assistente de atualização para Java, edição de vários arquivos e algo chamado Spark que soa como Claude’s Artifacts.
  • O seu código gerado por IA é seguro? Não. Não é provável que paremos de usar ferramentas como Copilot e Cursor, mas precisamos entender o desafio: os modelos de IA foram treinados em código disponível publicamente. A maior parte do código disponível publicamente possui vulnerabilidades. Isso será refletido na saída da IA.
  • Java precisa de outra ferramenta de construção? Moinho está esperando para assumir. Mill afirma ser 5–10x mais rápido que Maven, 2–4x mais rápido que Gradle.
  • Anfião é um package de ferramentas de código aberto para gerar todas as formas de áudio, incluindo música e fala.

Segurança

Robôs

  • Grasso é um Robô de lixo com tecnologia de IA: um robô móvel feito de lixo. Ele usa Llava-v1.6-mistral-7B para entender a entrada visible de sua câmera e Mistral-7B para avisos e respostas. (Ele não entende nem gera fala.)
  • Meta lançou vários novos projetos para percepção de toqueum elemento essential na construção de robôs baseados em IA que possam interagir com o mundo actual. Digit 360 é uma ponta de dedo digital tátil, Sparsh é um codificador para dados táteis e Digit Plexus é uma plataforma para construção de mãos artificiais.
  • Amarre dois micro robôs não inteligentes (cerdasbots) juntamente com uma corda curta e flexível e adquirem a capacidade de resolver problemas simples.

Rede

  • Quer rodar Linux em seu navegador? Você pode. WebVM é uma máquina digital que roda em um navegador. Linux no navegador pode não ser tão interessante; é mais importante como outro exemplo das habilidades de Wasm.

Realidade Digital

  • Quer falar com Rosa Parks ou Abraham Lincoln? Tentar ENGAJAR XRuma ferramenta que combina VR e IA generativa. Se isto é realmente história é uma questão interessante; o ônibus do exemplo de Rosa Parks parece um ônibus europeu moderno, e não um ônibus americano da década de 1950.

Computação Quântica

  • O DeepMind do Google desenvolveu AlphaQubitum sistema de IA que detecta erros em sistemas quânticos. A correção de erros fez um enorme progresso no ano passado, mas ainda continua sendo um grande problema na computação quântica.

Biologia



Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *