Como os dados estão remodelando a ciência


Como os dados estão remodelando a ciência

(Mundo Inovador/Shutterstock)

Desde as primeiras descobertas do telescópio, que expandiu o universo; de Schleiden e Schwann reconhecendo células vegetais ao microscópio, que revelou a célula; e desde Rutherford, que definiu o núcleo do átomo, até ao acelerador de partículas, a ciência fez frequentemente progressos significativos através dos seus instrumentos. Esta tendência continua com o instrumento definidor desta period: o conjunto de dados e o seu companheiro, a IA. Juntos, eles formam um novo laboratório onde os dados são ao mesmo tempo a substância e o meio de descoberta.

Esta é a história que começa com nossa nova série, A fronteira de dados da ciênciaque explora como as abordagens orientadas a dados estão revitalizando a ciência e a engenharia. O presente artigo marca o início dessa série, ampliando sua transição da observação para a simulação. Ele examina exemplos em uma ampla variedade de campos. Ao analisar como os cientistas estão a aprender a confiar tanto naquilo que os seus modelos prevêem como naquilo que as suas ferramentas registam, consideramos o que esta mudança implica para o futuro da descoberta científica.

A natureza mutável da descoberta científica

Com tantos dados e modelos de IA poderosos ao seu alcance, os pesquisadores estão realizando cada vez mais seu trabalho dentro de máquinas. Em muitas áreas, experimentos que antes começavam em laboratório agora começam em uma tela. A IA e a simulação inverteram a ordem da descoberta. Em muitos casos, o laboratório tornou-se a etapa ultimate, não a primeira.

(GarryKillian/Shutterstock)

Você pode ver isso acontecendo em quase todas as áreas da ciência. Em vez de testar uma ideia de cada vez, os pesquisadores agora realizam milhares de simulações para descobrir quais valem a pena tentar na vida actual. Quer estejam a trabalhar com novos materiais, modelos cerebrais ou sistemas climáticos, o padrão é claro: a computação tornou-se o campo de provas para a descoberta.

Laboratório Nacional Lawrence Berkeley Projeto de Materiais foi desenvolvido para testar novos compostos através do computador. Os cientistas realizam milhares de simulações para ver como um materials pode agir, em vez de misturar produtos químicos e ver o que acontece. O sistema pode prever qualquer coisa, desde condutividade elétrica até limites térmicos e estabilidade química. Isso acontece antes mesmo de ser fabricado. Somente candidatos que pareçam extremamente promissores são selecionados.

O Projeto Cérebro Humano EBRAINS permite que os cientistas simulem circuitos cerebrais – testando como os neurônios responderão a medicamentos ou estímulos sem depender de estudos em animais ou testes altamente invasivos. da NVIDIA Terra-2 já está a ser desenvolvido para modelar os efeitos das alterações climáticas com tal detalhe que cenários inteiros podem ser testados completa e rapidamente.

Isto não é simplesmente uma corrida. Não se trata apenas de mais investigações ou mais probabilities de falhar, mas de mais oportunidades de aprender. Se algo falhar, não desperdiça semanas de trabalho – torna-se dados para a próxima iteração. O laboratório não é mais onde os pesquisadores tentam as coisas. É onde os pesquisadores obtêm respostas.

Os novos instrumentos da ciência

Os dados mudaram a forma como a ciência funciona em um nível basic. O ritmo de adivinhação e verificação da experimentação tradicional foi substituído. Em vez de começar com uma placa de Petri, a descoberta começa com dados. Em vez de contemplar quais hipóteses testar, os pesquisadores deixaram o modelo mostrar o caminho.

Ferramentas como o Open Catalyst, da Meta e Carnegie Mellon, ajudam os cientistas a descobrir como as moléculas podem reagir – antes de realizar qualquer teste de laboratório. O sistema simula reações químicas em um computador, o que economiza tempo e reduz as dispendiosas tentativas e erros. É especialmente útil para encontrar melhores materiais para energia limpa, como novos catalisadores para combustível de hidrogênio ou captura de carbono.

Nas ciências da vida, DeepMind AlfaFold prevê como as proteínas se dobram com base em suas sequências de aminoácidos – algo que antes exigia muitos anos de trabalho de laboratório. Os resultados são agora utilizados para orientar tudo, desde planos experimentais até ao direcionamento de medicamentos, através de uma base de dados pública alojada pelo EMBL-EBI. Para muitos biólogos, o AlphaFold é agora o primeiro passo em suas pesquisas.

As simulações também estão dominando a física, onde a observação antes period intocável. Os cientistas usam o Supercomputador Aurora no Argonne Nationwide Lab para simular condições que não podem ser replicadas diretamente – como o comportamento do plasma, a formação de estrelas ou o que aconteceu momentos após o Huge Bang. Estas não são apenas visualizações – elas representam experimentos reais.

O microscópio não desapareceu. O telescópio ainda conta. Mas neste novo ambiente, raramente são as primeiras ferramentas utilizadas. Na maioria das vezes, o modelo lidera – e o laboratório segue.

Gêmeos Digitais e Dados Sintéticos: O Novo Combustível para Descoberta

A ciência costumava começar com a pergunta: o que podemos observar? Agora muitas vezes começa com uma pergunta diferente: o que podemos simular?

Em todas as ciências, o primeiro rascunho da descoberta já não acontece num caderno ou numa bancada de laboratório. Está acontecendo dentro de um modelo. Gêmeos digitais – réplicas de sistemas físicos baseadas em software program – e conjuntos de dados sintéticos estão rapidamente se tornando as ferramentas que os pesquisadores buscam primeiro. Eles permitem que você ensaie um experimento antes que a realidade se envolva. Se não parece promissor na simulação? Você não se preocupa em levar isso para o mundo actual.

(Estúdio DC/Shutterstock)

No Pesquisa aeronáutica da NASAisso está se tornando uma prática padrão. Novos projetos de aeronaves não vão direto para túneis de vento; em vez disso, eles vivem por semanas ou meses dentro de simuladores computacionais de dinâmica de fluidos. Os engenheiros testam como o ar flui pelas asas, como a pressão muda na turbulência e como o arrasto afeta a sustentação. Se algo falhar, eles ajustam e executam novamente. Os dados permitem que eles não se preocupem com erros ou desperdício de materiais. No momento em que constroem um protótipo, já o viram voar.

Na energia, a mesma lógica funciona no subsolo. Shell e BP modelam formações rochosas e sistemas de pressão usando dados sísmicos sintéticos. Eles mapeiam poços virtuais e simulam como a Terra pode responder antes que uma única broca toque o solo. Ainda é ciência. É exatamente o tipo que acontece primeiro no código.

Até a agricultura entrou nesta mudança. Empresas como OneSoiterra TURFA estão construindo campos digitais, como fazendas inteiras, recriados virtualmente a partir de imagens de satélite e dados climáticos. Eles simulam o que acontecerá se você plantar cedo, ou irrigar menos, ou pular completamente os pesticidas. Esses modelos não são abstratos. Eles estão ligados a campos reais, agricultores reais, estações reais. Acontece que os testes acontecem em alguns segundos, não em alguns meses.

O que torna tudo isso tão poderoso não é apenas a velocidade ou a escala. É o efeito de filtragem. No passado, o laboratório period onde você começava. Agora é para onde você vai quando as simulações lhe dão um motivo. O mundo actual não desapareceu, mas ganhou um novo papel de validador do digital.

O novo papel do cientista em um mundo simulado

Sim, o trabalho está mudando. Os cientistas não estão mais apenas testando hipóteses ou examinando microscópios. Cada vez mais, eles gerenciam sistemas – tentando impedir que os modelos se desviem, rastreando o que mudou e quando, certificando-se de que o que sai realmente significa alguma coisa. Eles passaram da realização de experimentos à construção do ambiente onde esses experimentos acontecem.

E quer estejam na DeepMind, Livermore, NOAA ou apenas em alguma equipe de pesquisa criando modelos, é o mesmo tipo de trabalho. Eles estão verificando se os dados são utilizáveis, descobrindo quem os tocou por último, perguntando-se se os rótulos são precisos. A IA pode fazer muito, mas não sabe quando está errada. Simplesmente continua. É por isso que isso ainda depende do humano envolvido.

Eles ainda estão curiosos. Ainda buscando insights. Mas agora grande parte do trabalho consiste apenas em manter o sistema honesto. Porque a saída do modelo parecerá correta. Ficará limpo. Mas, a menos que você tenha seguido todos os passos necessários para chegar lá, não poderá ter certeza de que é actual. Essa chamada – a verificação intestinal – ainda depende de você – o humano. Isso ainda é ciência. Isso está acontecendo mais a montante.

O que perdemos e ganhamos quando a realidade se torna código

Você ganha muito quando a ciência passa para a simulação. É rápido. Você pode dimensionar ideias como nunca antes. Os modelos não se cansam. Você pode realizar mil experimentos antes mesmo de terminar o café. Você obtém resultados mais limpos e controle mais rígido. No papel, tudo parece progresso. E é.

(Imagem de IA do Shutterstock)

No entanto, você também perde algo.

Quando tudo acontece dentro de uma máquina, você não sente os cheiros estranhos, os vidros quebrados, as reações estranhas que não pertencem. Você perde as pequenas coisas que costumavam levantar as sobrancelhas em um laboratório. O intestino verifica. Os acidentes que se transformaram em descobertas. Os modelos não oferecem isso. Eles fazem o que lhes mandam.

Então sim, você ganha precisão. Mas você desiste um pouco da sensação. Você obtém o controle. Mas o contexto escorrega. A realidade é confusa, mas recua. Os modelos não. Não, a menos que você os faça. Você tem que dizer a eles onde procurar. Quando parar. O que não confiar.

Isso ainda depende do cientista. As ferramentas mudaram. O terreno é diferente. Mas o trabalho? Ainda sobre saber quando algo está errado – mesmo quando os números parecem perfeitos. Especialmente então.

Na próxima parte desta série, mergulharemos nos modelos – aqueles treinados em artigos, dados de laboratório e décadas de trabalho científico. Nas partes posteriores, veremos a infraestrutura por trás de tudo e, em seguida, o problema de reprodutibilidade que ainda assombra a pesquisa científica alimentada pela IA. Tudo se resume aos dados: como eles são criados, confiáveis ​​e usados. Inscrever-se e acompanhe para não perder.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *