Think about que você tenha a tarefa de enviar um time de jogadores de futebol a um campo para avaliar as condições da grama (uma tarefa provável para eles, é claro). Se você escolher suas posições aleatoriamente, eles poderão se agrupar em algumas áreas e negligenciar completamente outras. Mas se você lhes der uma estratégia, como espalhar-se uniformemente pelo campo, poderá obter uma imagem muito mais precisa da condição da grama.
Agora, think about a necessidade de se espalhar não apenas em duas dimensões, mas em dezenas ou mesmo centenas. Esse é o desafio que os pesquisadores do Laboratório de Ciência da Computação e Inteligência Synthetic do MIT (CSAIL) estão enfrentando. Eles desenvolveram uma abordagem orientada por IA para “amostragem de baixa discrepância”, um método que melhora a precisão da simulação distribuindo pontos de dados de maneira mais uniforme no espaço.
Uma novidade importante está no uso de redes neurais de grafos (GNNs), que permitem que os pontos “se comuniquem” e se auto-otimizem para melhor uniformidade. Sua abordagem marca um aprimoramento basic para simulações em áreas como robótica, finanças e ciência da computação, particularmente no tratamento de problemas complexos e multidimensionais, essenciais para simulações precisas e cálculos numéricos.
“Em muitos problemas, quanto mais uniformemente você puder distribuir os pontos, mais precisamente você poderá simular sistemas complexos”, diz T. Konstantin Rusch, autor principal do novo artigo e pós-doutorado no MIT CSAIL. “Desenvolvemos um método chamado Message-Passing Monte Carlo (MPMC) para gerar pontos uniformemente espaçados, usando técnicas geométricas de aprendizagem profunda. Isto permite ainda gerar pontos que enfatizam dimensões que são particularmente importantes para um problema em questão, uma propriedade que é altamente importante em muitas aplicações. As redes neurais gráficas subjacentes do modelo permitem que os pontos ‘conversem’ entre si, alcançando uma uniformidade muito melhor do que os métodos anteriores.”
O trabalho deles foi publicado na edição de setembro da Anais da Academia Nacional de Ciências.
Leve-me para Monte Carlo
A ideia dos métodos de Monte Carlo é aprender sobre um sistema simulando-o com amostragem aleatória. Amostragem é a seleção de um subconjunto de uma população para estimar as características de toda a população. Historicamente, já period utilizado no século XVIII, quando o matemático Pierre-Simon Laplace o empregou para estimar a população da França sem a necessidade de contar cada indivíduo.
Sequências de baixa discrepância, que são sequências com baixa discrepância, ou seja, alta uniformidade, como Sobol’, Halton e Niederreiter, há muito tempo são o padrão-ouro para amostragem quase aleatória, que troca amostragem aleatória por amostragem de baixa discrepância. Eles são amplamente utilizados em áreas como computação gráfica e finanças computacionais, para tudo, desde opções de preços até avaliação de risco, onde o preenchimento uniforme de espaços com pontos pode levar a resultados mais precisos.
A estrutura MPMC sugerida pela equipe transforma amostras aleatórias em pontos com alta uniformidade. Isto é feito processando as amostras aleatórias com um GNN que minimiza uma medida de discrepância específica.
Um grande desafio de usar IA para gerar pontos altamente uniformes é que a maneira traditional de medir a uniformidade de pontos é muito lenta para calcular e difícil de trabalhar. Para resolver isso, a equipe mudou para uma medida de uniformidade mais rápida e flexível chamada discrepância L2. Para problemas de alta dimensão, onde esse método não é suficiente por si só, eles usam uma nova técnica que se concentra em importantes projeções dos pontos em dimensões inferiores. Dessa forma, eles podem criar conjuntos de pontos mais adequados para aplicações específicas.
As implicações vão muito além da academia, diz a equipe. Nas finanças computacionais, por exemplo, as simulações dependem fortemente da qualidade dos pontos de amostragem. “Com esses tipos de métodos, os pontos aleatórios costumam ser ineficientes, mas nossos pontos de baixa discrepância gerados pelo GNN levam a maior precisão”, diz Rusch. “Por exemplo, consideramos um problema clássico de finanças computacionais em 32 dimensões, onde nossos pontos MPMC superaram os métodos anteriores de amostragem quase aleatória de última geração por um fator de quatro a 24.”
Robôs em Monte Carlo
Na robótica, o planejamento de trajetória e movimento geralmente depende de algoritmos baseados em amostragem, que orientam os robôs através de processos de tomada de decisão em tempo actual. A uniformidade aprimorada do MPMC poderia levar a uma navegação robótica mais eficiente e a adaptações em tempo actual para coisas como direção autônoma ou tecnologia de drones. “Na verdade, em uma pré-impressão recente, demonstramos que nossos pontos MPMC alcançam uma melhoria quatro vezes maior em relação aos métodos anteriores de baixa discrepância quando aplicados a problemas de planejamento de movimento robótico do mundo actual”, diz Rusch.
“As sequências tradicionais de baixa discrepância foram um grande avanço em sua época, mas o mundo se tornou mais complexo e os problemas que estamos resolvendo agora muitas vezes existem em espaços de 10, 20 ou até 100 dimensões”, diz Daniela Rus, CSAIL diretor e professor de engenharia elétrica e ciência da computação do MIT. “Precisávamos de algo mais inteligente, algo que se adaptasse à medida que a dimensionalidade aumenta. GNNs são uma mudança de paradigma na forma como geramos conjuntos de pontos de baixa discrepância. Ao contrário dos métodos tradicionais, onde os pontos são gerados de forma independente, as GNNs permitem que os pontos ‘conversem’ entre si para que a rede aprenda a posicionar os pontos de uma forma que reduza agrupamentos e lacunas – problemas comuns com abordagens típicas.”
No futuro, a equipe planeja tornar os pontos MPMC ainda mais acessíveis a todos, abordando a limitação atual de treinar um novo GNN para cada número fixo de pontos e dimensões.
“Grande parte da matemática aplicada usa quantidades continuamente variáveis, mas a computação normalmente nos permite usar apenas um número finito de pontos”, diz Artwork B. Owen, professor de estatística da Universidade de Stanford, que não esteve envolvido na pesquisa. “O campo de discrepância com mais de um século usa álgebra abstrata e teoria dos números para definir pontos de amostragem eficazes. Este artigo usa redes neurais gráficas para encontrar pontos de entrada com baixa discrepância em comparação com uma distribuição contínua. Essa abordagem já chega muito perto dos conjuntos de pontos de baixa discrepância mais conhecidos em pequenos problemas e está se mostrando muito promissora para uma integral de 32 dimensões a partir de finanças computacionais. Podemos esperar que este seja o primeiro de muitos esforços para usar métodos neurais para encontrar bons pontos de entrada para computação numérica.”
Rusch e Rus escreveram o artigo com o pesquisador da Universidade de Waterloo, Nathan Kirk, o professor DeepMind de IA da Universidade de Oxford e ex-afiliado do CSAIL, Michael Bronstein, e a professora de estatística e ciências atuariais da Universidade de Waterloo, Christiane Lemieux. Sua pesquisa foi apoiada, em parte, pelo programa AI2050 da Schmidt Futures, Boeing, Laboratório de Pesquisa da Força Aérea dos Estados Unidos e Acelerador de Inteligência Synthetic da Força Aérea dos Estados Unidos, Fundação Nacional Suíça de Ciência, Conselho de Pesquisa em Ciências Naturais e Engenharia do Canadá, e uma bolsa de pesquisa líder mundial EPSRC Turing AI.