Infrinia AI Cloud OS da SoftBank para serviços em nuvem GPU


Holding de investimento multinacional japonesa, SoftBanklançou o Infrinia AI Cloud OS, uma pilha de software program personalizada para knowledge facilities de IA. Projetado pela equipe Infrinia da empresa, o Infrinia AI Cloud OS permite que os operadores de knowledge heart forneçam Kubernetes como serviço (KaaS) em configurações multilocatários e ofereçam inferência como serviço (Inf-aaS). Portanto, os clientes podem acessar LLMs por meio de APIs simples que podem ser adicionadas diretamente às ofertas de nuvem de GPU existentes de uma operadora.

O Infrinia Cloud OS atende às crescentes demandas globais

Espera-se que a pilha de software program reduza o custo complete de propriedade (TCO) e simplifique as complexidades do dia a dia, especialmente quando comparada com opções desenvolvidas internamente e pilhas personalizadas. Em última análise, o Infrinia Cloud OS promete acelerar as implantações de serviços em nuvem GPU, suportando simultaneamente cada estágio do ciclo de vida da IA, desde modelos de treinamento até o uso em tempo actual.

Inicialmente, o SoftBank planeja incorporar o Infrinia Cloud OS em suas ofertas existentes de GPU em nuvem antes de implantar a pilha de software program globalmente em knowledge facilities e plataformas em nuvem no exterior no futuro.

A demanda por IA alimentada por GPU tem aumentado rapidamente em muitos setores, desde ciência e robótica até IA generativa. À medida que as necessidades complexas dos usuários também crescem, isso coloca demanda nos provedores de serviços em nuvem de GPU.

Alguns usuários exigem sistemas totalmente gerenciados com “servidores bare-metal de GPU abstratos”, enquanto outros precisam de inferência de IA acessível, sem ter que depender diretamente do gerenciamento de GPU. Outros buscam configurações mais avançadas onde o treinamento do modelo de IA seja centralizado e a inferência seja implementada na borda.

O Infrinia AI Cloud OS foi projetado para enfrentar esses desafios, maximizando o desempenho da GPU e facilitando o gerenciamento e a implantação de serviços em nuvem da GPU.

Habilidades do Infrinia Cloud OS

Com seus recursos KaaS, a pilha de software program mais recente do SoftBank é capaz de automatizar todas as camadas da infraestrutura subjacente, desde configurações de servidor de baixo nível até armazenamento, rede e o próprio Kubernetes.

Ele também pode reconfigurar conexões de {hardware} e memória conforme necessário, permitindo que clusters de GPU sejam produzidos, ajustados ou removidos rapidamente para atender a diferentes cargas de trabalho de IA. A alocação automatizada de nós, baseada na proximidade das GPUs e dos domínios NVIDIA NVLink, ajuda a reduzir atrasos e melhora a largura de banda de GPU para GPU para cargas de trabalho distribuídas e em maior escala. O componente Inf-aaS da Infrinia foi projetado para que os usuários possam implementar facilmente cargas de trabalho de inferência, permitindo acesso mais rápido e escalável à inferência de modelos de IA por meio de serviços gerenciados.

Ao simplificar as complexidades operacionais e diminuir o TCO, o Infrinia AI Cloud OS está posicionado para acelerar a adoção da infraestrutura de IA baseada em GPU em diferentes setores em todo o mundo.

(Fonte da imagem: “SoftBank.” por MIKI Yoshihito. (#mikiyoshihito) está licenciado sob CC BY 2.0.)

Infrinia AI Cloud OS da SoftBank para serviços em nuvem GPUInfrinia AI Cloud OS da SoftBank para serviços em nuvem GPU

Quer aprender mais sobre Cloud Computing com os líderes do setor? Confira Segurança cibernética e exposição de nuvem acontecendo em Amsterdã, Califórnia e Londres. O evento abrangente faz parte TechEx e co-localizado com outros eventos de tecnologia líderes. Clique aqui para mais informações.

CloudTech Information é desenvolvido por Mídia TechForge. Discover outros eventos e webinars de tecnologia empresarial futuros aqui.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *