
(Luke Jade/Shutterstock)
A IA continua a desempenhar um papel basic na pesquisa científica – não apenas na condução de novas descobertas, mas também na maneira como entendemos as ferramentas por trás dessas descobertas. A computação de alto desempenho está no coração dos principais avanços científicos há anos. No entanto, à medida que esses sistemas crescem em tamanho e complexidade, eles estão se tornando mais difíceis de entender.
As limitações são claras. Os cientistas podem ver o que suas simulações estão fazendo, mas muitas vezes não conseguem explicar por que um trabalho diminuiu ou falhou sem aviso prévio. As máquinas geram montanhas de dados do sistema, mas a maioria está escondida atrás dos painéis feitos para equipes de TI, não pesquisadores. Não há maneira fácil de explorar o que aconteceu. Mesmo quando os dados estão disponíveis, o trabalho com o conhecimento de codificação, habilidades de engenharia e aprendizado de máquina que muitos cientistas não têm. As ferramentas são lentas, estáticas e difíceis de se adaptar dinamicamente.
Cientistas dos Laboratórios Nacionais de Sandia estão tentando mudar isso. Eles têm construiu um sistema chamado épico (Plataforma explicável para infraestrutura e computação) que serve como uma plataforma orientada a IA projetada para aumentar a análise de dados operacionais. Ele aproveita os novos recursos emergentes dos modelos fundamentais da Genai no contexto da análise operacional do HPC.
Os pesquisadores podem usar o Epic para ver o que está acontecendo dentro de um supercomputador usando linguagem simples. Em vez de cavar logs ou escrever comandos complexos, os usuários podem fazer perguntas simples e obter respostas claras sobre como os trabalhos foram executados ou o que diminuiu uma simulação.
“O EPIC visa aumentar várias tarefas orientadas a dados, como análise descritiva e análise preditiva, automatizando o processo de raciocínio e interação com os dados operacionais multimodais de alta dimensão e sintetizando os resultados em insights significativos”.
As pessoas por trás do Epic estavam buscando mais do que apenas mais uma ferramenta de dados. Eles queriam algo que realmente ajudasse os pesquisadores a fazer perguntas e entender as respostas. Em vez de construir um painel com botões e gráficos, eles tentaram projetar uma experiência que parecia mais pure. Algo mais próximo de uma conversa de volta e de festas do que um immediate de linha de comando. Os pesquisadores podem permanecer focados em sua linha de investigação sem pular entre interfaces ou cavar através de toras.
O que os poderes dessa experiência é a IA trabalhando em segundo plano. Ele se baseia em muitas fontes, como arquivos de log, telemetria e documentação. Reúne -os de uma maneira que faz sentido. Os pesquisadores podem seguir o comportamento do sistema, identificar onde acontecem a desaceleração e os padrões de ponto, tudo sem precisar codificar ou chamar suporte. A Epic ajuda a fazer a infraestrutura complicada parecer mais compreensível e menos esmagadora.
Para tornar isso possível, a equipe por trás do Epic desenvolveu uma arquitetura modular que vincula modelos de linguagem de uso geral a modelos menores treinados especificamente para tarefas de HPC. Essa configuração permite que o sistema lide com diferentes tipos de dados e gere uma gama de saídas, desde respostas simples a gráficos, previsões ou consultas SQL.
Ao ajustar modelos abertos em vez de confiar em sistemas comerciais maciços, eles foram capazes de manter o desempenho alto e reduzir os custos. O objetivo period dar aos cientistas uma ferramenta que se adapte à maneira como pensam e trabalham, não aquela que os força a aprender mais uma interface.
Nos testes, o sistema teve um bom desempenho em uma variedade de tarefas. Seu mecanismo de roteamento pode direcionar com precisão as questões para os modelos certos, atingindo uma pontuação de 0,77 F1. Modelos menores, como variantes LLAMA 3 8B, lidaram com tarefas complexas como geração SQL e previsão de sistema de maneira mais eficaz do que modelos proprietários maiores.
As ferramentas de previsão da Epic também se mostraram confiáveis. Produziu estimativas precisas para o uso de temperatura, energia e energia em diferentes cargas de trabalho do supercomputador. Talvez o mais importante, a plataforma entregou esses resultados com uma fração do custo e da sobrecarga de computação normalmente esperados a partir dessa configuração. Para pesquisadores que trabalham em sistemas complexos com suporte limitado, esse tipo de eficiência pode fazer uma diferença significativa.
“Existe uma lacuna inconfundível entre dados e insights principalmente gargalos pela complexidade de lidar com grandes quantidades de dados de várias fontes, enquanto cumprem casos de uso multifacetados com alvo de muitos públicos diferentes”, enfatizou os pesquisadores.
O fechamento da última milha entre os dados brutos do sistema e o perception actual continua sendo um dos maiores obstáculos na computação de alto desempenho. A Epic oferece um vislumbre do que é possível quando a IA é tecida diretamente no processo de análise, e não apenas um complemento. Pode ajudar a remodelar como os cientistas interagem com as ferramentas que alimentam seu trabalho. À medida que os modelos melhoram e os sistemas escalam ainda mais, plataformas como a Epic podem ajudar a garantir que o entendimento proceed ritmo com a inovação.
Itens relacionados
O Chefsi do MIT reúne dados de AI, HPC e Materiais para simulações avançadas
Alimentando o ciclo virtuoso da descoberta: HPC, Huge Knowledge e AI aceleração
Deloitte destaca a mudança dos Wranglers de dados para os contadores de histórias de dados