AGI está chegando mais rápido do que pensamos – devemos nos preparar agora


Participe de nossos boletins informativos diários e semanais para obter as atualizações mais recentes e conteúdo exclusivo sobre a cobertura de IA líder do setor. Saber mais


Figuras importantes da IA, incluindo Dario Amodei da Anthropic e Sam Altman da OpenAI, sugerem que uma “IA poderosa” ou mesmo superinteligência poderá aparecer nos próximos dois a ten anos, potencialmente remodelando o nosso mundo.

Em seu recente ensaio Máquinas de graça amorosaAmodei fornece uma exploração cuidadosa do potencial da IA, sugerindo que uma IA poderosa – o que outros chamam de inteligência synthetic geral (AGI) – poderia ser alcançada já em 2026. Enquanto isso, em A Period da InteligênciaAltman escreve que “é possível que tenhamos superinteligência em alguns milhares de dias” (ou em 2034). Se estiverem corretos, em algum momento nos próximos dois a ten anos, o mundo mudará dramaticamente.

Como líderes em investigação e desenvolvimento de IA, Amodei e Altman estão na vanguarda da expansão dos limites do que é possível, tornando as suas ideias particularmente influentes à medida que olhamos para o futuro. Amodei outline IA poderosa como “mais inteligente do que um ganhador do Prêmio Nobel nas áreas mais relevantes – biologia, programação, matemática, engenharia, escrita…” Altman não outline explicitamente a superinteligência em seu ensaio, embora seja entendido como sistemas de IA que ultrapassam as capacidades intelectuais humanas em todos os domínios .

Nem todos partilham deste cronograma otimista, embora estes pontos de vista menos otimistas não tenham diminuído o entusiasmo entre os líderes tecnológicos. Por exemplo, o cofundador da OpenAI, Ilya Sutskever, é agora cofundador da Protected Superintelligence (SSI), uma startup dedicada ao avanço da IA ​​com uma abordagem que prioriza a segurança. Quando anunciando SSI em junho passado, Sutskever disse: “Buscaremos uma superinteligência segura de forma direta, com um foco, um objetivo e um produto”. Falando sobre avanços de IA há um ano quando ainda estava na OpenAI, ele observou: “Será algo monumental e devastador. Haverá um antes e um depois.” Na sua nova função na SSI, Sutskever já arrecadou um bilhão de dólares para financiar os esforços da empresa.

Essas previsões estão alinhadas com a estimativa de Elon Musk de que a IA superará o desempenho de toda a humanidade até 2029. Musk disse recentemente que a IA seria capaz de fazer qualquer coisa que qualquer ser humano pudesse fazer nos próximos um ou dois anos. Ele acrescentou que a IA seria capaz de fazer o que todos os humanos combinados podem fazer em mais três anos, em 2028 ou 2029. Essas previsões também são consistentes com a visão de longa knowledge do futurista Ray Kurzweil de que a AGI seria alcançada até 2029. Kurzweil fez essa previsão já em 1995 e escreveu sobre isso neste livro best-seller de 2005, “A singularidade está próxima.”

O futurista Ray Kurzweil mantém sua previsão de AGI até 2029.

A transformação iminente

Como estamos à beira destes potenciais avanços, precisamos de avaliar se estamos realmente prontos para esta transformação. Pronto ou não, se estas previsões estiverem corretas, um mundo fundamentalmente novo chegará em breve.

Uma criança nascida hoje poderia ingressar no jardim de infância num mundo transformado pela AGI. Os cuidadores de IA ficarão muito atrás? De repente, a visão futurística de Kazuo Ishiguro em “Klara e o Sol”de um amigo synthetic andróide para as crianças quando chegam à adolescência não parece tão improvável. A perspectiva de companheiros e cuidadores de IA sugere um mundo com profundas mudanças éticas e sociais, que podem desafiar as nossas estruturas existentes.

Para além dos companheiros e cuidadores, as implicações destas tecnologias não têm precedentes na história da humanidade, oferecendo tanto uma promessa revolucionária como um risco existencial. As vantagens potenciais que poderiam advir IA poderosa é profunda. Além dos avanços robóticos, isso poderia incluir o desenvolvimento de curas para o câncer e a depressão, para finalmente alcançar a energia de fusão. Alguns vêem esta época vindoura como um period da abundância com as pessoas tendo novas oportunidades de criatividade e conexão. No entanto, as desvantagens plausíveis são igualmente importantes, desde o enorme desemprego e a desigualdade de rendimentos até às armas autónomas descontroladas.

No curto prazo, o principal cientista pesquisador do MIT Sloan, Andrew McAfee, vê a IA como uma melhoria, em vez de uma substituição, dos empregos humanos. Em um recente Podcast dinâmicoele argumentou que a IA fornece “um exército de funcionários, colegas e treinadores” disponíveis sob demanda, mesmo que às vezes assuma “grandes porções” de empregos.

Mas esta visão medida do impacto da IA ​​pode ter uma knowledge remaining. Elon Musk disse que, a longo prazo, “provavelmente nenhum de nós terá emprego”. Este forte contraste destaca um ponto essential: o que quer que pareça verdade sobre as capacidades e os impactos da IA ​​em 2024 pode ser radicalmente diferente no mundo da AGI, que poderá estar a apenas alguns anos de distância.

Moderando as expectativas: equilibrando o otimismo com a realidade

Apesar destas previsões ambiciosas, nem todos concordam que uma IA poderosa esteja no horizonte próximo ou que os seus efeitos serão tão evidentes. O cético do aprendizado profundo, Gary Marcus, vem alertando há algum tempo que as atuais tecnologias de IA não são capazes de AGI, argumentando que a tecnologia carece das habilidades de raciocínio profundo necessárias. Ele ficou famoso por mirar na recente previsão de Musk de que a IA brand seria mais inteligente do que qualquer ser humano e ofereceu US$ 1 milhão para provar que ele estava errado.

AGI está chegando mais rápido do que pensamos – devemos nos preparar agora

Linus Torvalds, criador e desenvolvedor líder do sistema operacional Linux, disse recentemente que ele pensava que a IA mudaria o mundo, mas atualmente é “90% advertising and marketing e 10% realidade”. Ele sugeriu que, por enquanto, a IA pode ser mais exagero do que substância.

Talvez dar credibilidade à afirmação de Torvald seja uma novo artigo da OpenAI que mostra seus principais modelos de linguagem de fronteira (LLM), incluindo GPT-4o e o1, lutando para responder a perguntas simples para as quais existem respostas factuais. O artigo descreve um novo benchmark “SimpleQA” “para medir a factualidade dos modelos de linguagem”. O melhor desempenho é o1-preview, mas produziu respostas incorretas para metade das perguntas.

Desempenho de LLMs de fronteira no novo benchmark SimpleQA da OpenAI. Fonte: Apresentando SimpleQA.

Olhando para o futuro: Preparação para a period da IA

As previsões otimistas sobre o potencial da IA ​​contrastam com o estado atual da tecnologia, conforme mostrado em benchmarks como o SimpleQA. Estas limitações sugerem que, embora o campo esteja a progredir rapidamente, são necessários alguns avanços significativos para alcançar a verdadeira AGI.

No entanto, aqueles que estão mais próximos da tecnologia de IA em desenvolvimento prevêem um rápido avanço. Em um recente Podcast do Arduous Forkex-consultor sênior da OpenAI para preparação de AGI Miles Brundage disse: “Acho que a maioria das pessoas que sabem do que estão falando concordam que (AGI) irá embora muito rapidamente e o que isso significa para a sociedade não é algo que possa necessariamente ser previsto”. Brundage acrescentou: “Acho que a aposentadoria chegará para a maioria das pessoas mais cedo do que pensam…”

A Lei de Amara, cunhada em 1973 por Roy Amara, de Stanford, diz que frequentemente sobrestimamos o impacto a curto prazo das novas tecnologias, ao mesmo tempo que subestimamos o seu potencial a longo prazo. Embora o cronograma actual de chegada da AGI possa não corresponder às previsões mais agressivas, o seu eventual surgimento, talvez dentro de apenas alguns anos, poderá remodelar a sociedade de forma mais profunda do que até mesmo os optimistas de hoje imaginam.

No entanto, a lacuna entre as capacidades atuais de IA e a verdadeira AGI ainda é significativa. Dados os riscos envolvidos — desde avanços médicos revolucionários até riscos existenciais — esta proteção é valiosa. Oferece um momento essential para desenvolver quadros de segurança, adaptar as nossas instituições e preparar-nos para uma transformação que alterará fundamentalmente a experiência humana. A questão não é apenas quando a AGI chegará, mas também se estaremos preparados para isso quando isso acontecer.

Gary Grossman é vice-presidente executivo de prática de tecnologia da Edelman e líder international do Edelman AI Middle of Excellence.

Tomadores de decisões de dados

Bem-vindo à comunidade VentureBeat!

DataDecisionMakers é onde especialistas, incluindo o pessoal técnico que trabalha com dados, podem compartilhar insights e inovações relacionadas a dados.

Se você quiser ler sobre ideias de ponta e informações atualizadas, melhores práticas e o futuro dos dados e da tecnologia de dados, junte-se a nós no DataDecisionMakers.

Você pode até considerar contribuindo com um artigo de sua autoria!

Leia mais em DataDecisionMakers


Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *