A tecnologia NPU com eficiência energética reduz o uso de energia da IA em 44%


Pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coréia (KAIST) desenvolveram tecnologia NPU com eficiência energética que demonstra melhorias substanciais de desempenho nos testes de laboratório.

Seu chip de IA especializado executou modelos de IA 60% mais rápido, usando 44% menos eletricidade do que as placas gráficas atualmente alimentando a maioria dos sistemas de IA, com base nos resultados de experimentos controlados.

Simplificando, a pesquisa, liderada pelo professor Jongse Park, da Escola de Computação de Kaist em colaboração com a Hyperaccel Inc., aborda um dos desafios mais prementes da infraestrutura moderna de IA: os enormes requisitos de energia e {hardware} dos modelos de IA geradores em larga escala.

Sistemas atuais como o ChatGPT-4 do OpenAI e o Gemini 2.5 do Google exigem não apenas a largura de banda de alta memória, mas também a capacidade substancial da memória, impulsionando empresas como Microsoft e Google a comprar centenas de milhares de GPUs da NVIDIA.

O desafio de gargalo de memória

A inovação principal está na abordagem da equipe para resolver problemas de gargalo de memória que atormentam a infraestrutura de IA existente. Sua tecnologia NPU com eficiência energética se concentra em “leve” no processo de inferência, minimizando a perda de precisão-um equilíbrio crítico que se mostrou desafiador para soluções anteriores.

O aluno de doutorado Minsu Kim e o Dr. Seongmin Hong, da Hyperaccel Inc., atuando como co-primeiro autores, apresentaram suas descobertas no Simpósio Internacional de 2025 sobre Arquitetura de Computador (ISCA 2025) em Tóquio. O artigo de pesquisa, intitulado “Oaken: LLM rápido e eficiente que serve com quantização de cache híbrida kV online-offline”Detalha sua abordagem abrangente para o problema.

A tecnologia centra -se na quantização do cache do KV, que os pesquisadores identificam como responsável pela maioria do uso de memória em sistemas de IA generativos. Ao otimizar esse componente, a equipe permite o mesmo nível de desempenho da infraestrutura de IA usando menos dispositivos NPU em comparação com os sistemas tradicionais baseados em GPU.

Inovação técnica e arquitetura

A tecnologia NPU com eficiência energética da equipe KAIST emprega um algoritmo de quantização de três itens: quantização híbrida on-line de limiar: quantização híbrida on-line baseada em linha, quantização de mudança de grupo e codificação densas e fusíveis fundidas. Essa abordagem permite que o sistema se integre às interfaces de memória existentes sem exigir alterações na lógica operacional nas arquiteturas atuais da NPU.

A arquitetura de {hardware} incorpora técnicas de gerenciamento de memória de nível de página para obter uma utilização eficiente de largura de banda de memória limitada e capacidade. Além disso, a equipe introduziu novas técnicas de codificação otimizadas especificamente para o cache KV quantizado, atendendo aos requisitos exclusivos de sua abordagem.

“Esta pesquisa, através do trabalho conjunto com a Hyperaccel Inc., encontrou uma solução em algoritmos generativos de inferência de IA e conseguiu desenvolver uma tecnologia principal da NPU que possa resolver o problema da memória”, explicou o professor Park.

“Por meio dessa tecnologia, implementamos uma NPU com mais de 60% de desempenho melhorado em comparação com as GPUs mais recentes, combinando técnicas de quantização que reduzem os requisitos de memória, mantendo a precisão da inferência”.

Implicações de sustentabilidade

O impacto ambiental da infraestrutura de IA tornou -se uma preocupação crescente à medida que a adoção generativa de IA acelera. A tecnologia NPU com eficiência energética desenvolvida pela Kaist oferece um caminho potencial para operações de IA mais sustentáveis.

Com 44% de menor consumo de energia em comparação com as soluções de GPU atuais, a adoção generalizada pode reduzir significativamente a pegada de carbono dos serviços em nuvem de IA. No entanto, o impacto do mundo actual da tecnologia dependerá de vários fatores, incluindo escalabilidade de fabricação, custo-efetividade e taxas de adoção do setor.

Os pesquisadores reconhecem que sua solução representa um passo significativo, mas a implementação generalizada exigirá a colaboração contínua do desenvolvimento e do setor.

Contexto da indústria e perspectiva futura

O momento desse avanço na tecnologia da NPU com eficiência energética é particularmente relevante, pois as empresas de IA enfrentam pressão crescente para equilibrar o desempenho com a sustentabilidade. O mercado atual dominado pela GPU criou restrições da cadeia de suprimentos e custos elevados, tornando as soluções alternativas cada vez mais atraentes.

O Professor Park observou que a tecnologia “demonstrou a possibilidade de implementar infraestrutura de alto desempenho e de baixa potência especializada em IA generativa e deve desempenhar um papel basic não apenas nos information facilities da IA Cloud, mas também no ambiente de transformação de IA (AX) representado por IA dinâmica e executável, como a IA Agentic.”

A pesquisa representa um passo significativo em direção a uma infraestrutura de IA mais sustentável, mas seu impacto last será determinado pela eficácia com que pode ser dimensionada e implantada em ambientes comerciais. À medida que a indústria da IA continua a lidar com preocupações com o consumo de energia, inovações como a tecnologia NPU com eficiência energética da Kaist oferecem esperança para um futuro mais sustentável na computação de inteligência synthetic.

(Foto do Instituto Avançado de Ciência e Tecnologia da Coréia)

Veja também: As 6 práticas que garantem operações de information middle mais sustentáveis

A tecnologia NPU com eficiência energética reduz o uso de energia da IA em 44%A tecnologia NPU com eficiência energética reduz o uso de energia da IA em 44%

Deseja aprender mais sobre segurança cibernética e nuvem dos líderes da indústria? Confira Cyber Safety & Cloud Expo Ocorrendo em Amsterdã, Califórnia e Londres.

Discover outros próximos eventos de tecnologia corporativa e webinars alimentados pela TechForge aqui.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *