
A Hewlett Packard Enterprise (HPE) se uniu à Nvidia para oferecer o que eles estão promovendo como uma solução integrada “pronta para uso” para organizações que buscam adotar inteligência synthetic generativa (GenAI), mas são desencorajadas pelas complexidades de desenvolver e gerenciar tais cargas de trabalho.
Apelidado de Nvidia AI Computing pela HPE, o portfólio de produtos e serviços abrange aplicativos de IA co-desenvolvidos e verá ambas as empresas lançarem e entregarem soluções aos clientes em conjunto. Elas farão isso junto com parceiros de canal que incluem Deloitte, Infosys e Wipro.
A expansão da parceria HPE-Nvidia, que já dura décadas, foi anunciada durante a palestra do presidente e CEO da HPE, Antonio Neri, no HPE Uncover 2024, realizado no Sphere em Las Vegas esta semana. Ele foi acompanhado no palco pelo fundador e CEO da Nvidia, Jensen Huang.
Neri observou que a GenAI detém um poder transformador significativo, mas as complexidades da tecnologia de IA fragmentada vêm com muitas riscos que impedem adoção empresarial em larga escala. Apressar-se para adotar pode ser custoso, especialmente para o ativo mais caro de uma empresa — seus dados, ele disse.
Huang acrescentou que há três componentes principais na IA, a saber, modelos de linguagem grande (LLMs), os recursos de computação para processar esses modelos e dados. Portanto, as empresas precisarão de uma pilha de computação, uma pilha de modelos e uma pilha de dados. Cada um deles é complexo de implantar e gerenciar, ele disse.
A parceria HPE-Nvidia trabalhou para produzir esses modelos, aproveitando a plataforma de software program AI Enterprise da Nvidia, incluindo microsserviços de inferência Nvidia NIM, e o software program HPE AI Necessities, que fornece ferramentas de IA e base de dados selecionadas, juntamente com um painel de controle centralizado.
A solução “chave na mão” permitirá que organizações que não têm tempo ou experiência para reunir todos os recursos, incluindo modelos de treinamento, concentrem seus recursos no desenvolvimento de novos casos de uso de IA, disse Neri.
A chave para isso é a HPE Personal Cloud AI, disse ele, que oferece um conjunto de IA integrado que compreende rede Ethernet Nvidia Spectrum-X, HPE GreenLake para armazenamento de arquivos e servidores HPE ProLiant otimizados para oferecer suporte às GPUs L40S, H100 NVL Tensor Core da Nvidia e à plataforma GH200 NVL2.
Também: Os últimos benchmarks de treinamento de IA mostram que a Nvidia não tem concorrência
A IA requer uma nuvem híbrida por design para fornecer GenAI de forma eficaz e durante todo o ciclo de vida da IA, disse Neri, ecoando o que ele disse em março na Nvidia GTC. “Do treinamento e ajuste de modelos no native, em uma instalação de colocation ou na nuvem pública, até a inferência na borda, a IA é uma carga de trabalho de nuvem híbrida”, disse ele.
Com a oferta integrada HPE-Nvidia, Neri está dizendo que os usuários podem configurar sua implantação de IA em apenas três cliques e 24 segundos.
Huang disse: “GenAI e computação acelerada estão alimentando uma transformação basic à medida que cada indústria corre para se juntar à revolução industrial. Nunca antes a Nvidia e a HPE integraram nossas tecnologias tão profundamente — combinando toda a pilha de computação de IA da Nvidia com a tecnologia de nuvem privada da HPE.”
Removendo as complexidades e a desconexão
A solução conjunta reúne tecnologias e equipes que não estão necessariamente integradas dentro das organizações, disse Joseph Yang, gerente geral de HPC e IA da HPE para Ásia-Pacífico e Índia.
As equipes de IA (em empresas que as têm) normalmente são executadas independentemente das equipes de TI e podem nem mesmo se reportar à TI, disse Yang em uma entrevista com a ZDNET nos bastidores do HPE Uncover. Elas sabem como construir e treinar modelos de IA, enquanto as equipes de TI estão familiarizadas com arquiteturas de nuvem que hospedam cargas de trabalho de propósito geral e podem não entender infraestruturas de IA.
Também: O maior desafio da IA generativa é mostrar o ROI – eis o porquê
Há uma desconexão entre os dois, ele disse, observando que as infraestruturas de IA e nuvem são distintamente diferentes. Cargas de trabalho de nuvem, por exemplo, tendem a ser pequenas, com um servidor capaz de hospedar várias máquinas virtuais. Em comparação, as cargas de trabalho de inferência de IA são grandes, e executar modelos de IA requer infraestruturas significativamente maiores, tornando essas arquiteturas complicadas de gerenciar.
As equipes de TI também enfrentam uma pressão crescente da gerência para adotar IA, aumentando ainda mais a pressão e a complexidade da implantação do GenAI, disse Yang.
Ele acrescentou que as organizações devem decidir qual arquitetura precisam para seguir adiante com seus planos de IA, já que sua infraestrutura de {hardware} existente é uma miscelânea de servidores que podem estar obsoletos. E como elas podem não ter investido em uma nuvem privada ou farm de servidores para executar cargas de trabalho de IA, elas enfrentam limitações sobre o que podem fazer, já que seu ambiente existente não é escalável.
“As empresas precisarão da infraestrutura e dos recursos de computação corretos que as habilitem a acelerar a inovação, minimizando as complexidades e os riscos associados ao GenAI”, disse Yang. “O portfólio Nvidia AI Computing by HPE capacitará as empresas a acelerar o tempo de valor com o GenAI para impulsionar novas oportunidades e crescimento.”
Neri observou ainda que a implantação da nuvem privada também abordará preocupações que as organizações podem ter sobre segurança e soberania de dados.
Ele acrescentou que a HPE observa todas as regulamentações e requisitos de conformidade locais, portanto, os princípios e políticas de IA serão aplicados de acordo com as necessidades do mercado native.
De acordo com a HPE, a oferta de IA de nuvem privada fornece suporte para inferência, ajuste fino e cargas de trabalho de IA RAG (geração aumentada de recuperação) que exploram dados proprietários, bem como controles para privacidade, segurança e conformidade de dados. Ela também oferece recursos de ITOps e AIOps de nuvem.
Com a tecnologia dos serviços de nuvem HPE GreenLake, a oferta de IA de nuvem privada permitirá que as empresas automatizem e orquestrem endpoints, cargas de trabalho e dados em ambientes híbridos.
Também: Como minhas 4 ferramentas de IA favoritas me ajudam a fazer mais no trabalho
O HPE Personal Cloud AI está programado para disponibilidade geral no outono, juntamente com o servidor HPE ProLiant DL380a Gen12 com GPUs Nvidia H200 NVL Tensor Core e o servidor HPE ProLiant DL384 Gen12 com duas Nvidia GH200 NVL2.
O servidor HPE Cray XD670 com Nvidia H200 NVL está programado para disponibilidade geral no verão.
Eileen Yu relatou para a ZDNET sobre o HPE Uncover 2024 em Las Vegas, a convite da Hewlett Packard Enterprise.