O maior não ganha – O’Reilly


Janeiro foi notável pelo número de anúncios importantes na IA. Para mim, dois se destacam: o apoio do governo dos EUA ao Projeto Stargate, um gigante information heart que custa US $ 500 bilhões, com investimentos provenientes de Oracle, Softbank e Openai; e o lançamento de Deepseek de seu R1 Modelo de raciocíniotreinado a um custo estimado de aproximadamente US $ 5 milhões – um número grande, mas uma fração do que custa aberta para treinar seus modelos O1.

A cultura dos EUA há muito tempo assumiu que maior é melhor e que mais caro é melhor. Isso certamente faz parte do que está por trás do information heart mais caro já concebido. Mas temos que fazer uma pergunta muito diferente. Se Deepseek foi de fato treinado por aproximadamente um décimo do que custa para treinar O1, e se a inferência (gerando respostas) na Deepseek custa aproximadamente um trigésimo no que custa em O1 (US $ 2,19 por milhão de tokens de produção contra US $ 60 por milhão de tokens de produção), o setor de tecnologia dos EUA está indo na direção certa?

Aprenda mais rápido. Cavar mais fundo. Veja mais longe.

Claramente não é. Nossa mentalidade “maior é melhor” está nos falhando.

Há muito tempo acredito que a chave do sucesso da IA ​​seria minimizar o custo de treinamento e inferência. Não acredito que haja realmente uma corrida entre os EUA e as comunidades de IA chinesas. Mas se aceitarmos essa metáfora, os EUA – e o Openai em specific – estarão claramente para trás. E um information heart de meio trilhão de dólares faz parte do problema, não da solução. Melhor engenharia supera “Subsize It”. Os tecnólogos nos EUA precisam aprender essa lição.

Obtenha as tendências de radar O’Reilly para assistir a boletim informativo



Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *