Você notou algo… estranho na sua rede de mídia social preferida no fim de semana passado? (Quero dizer, mais estranho que o regular.) Algo como várias pessoas postando sobre enxames de agentes de IA alcançando uma espécie de consciência coletiva e/ou conspirando juntos para a queda da humanidade? Em algo chamado… Livro Molt?
Parece importante, especialmente quando a postagem é escrito por Andrej Karpathy, um proeminente pesquisador de IA que trabalhou na OpenAI.
Mas se você não passou as últimas 72 horas mergulhando no discurso em torno do Moltbook e ponderando se ele é o primeiro prenúncio do fim da humanidade ou uma farsa gigante ou algo intermediário, você provavelmente tem dúvidas. Começando com…
O que diabos é Moltbook?
Moltbook é uma rede social “somente IA” onde agentes de IA – programas de modelo de linguagem grande (LLM) que podem tomar medidas para atingir objetivos por conta própria, em vez de apenas responder a solicitações – postam e respondem uns aos outros. Surgiu de uma código aberto projeto que costumava ser chamado de Moltbot – daí, “Moltbook”.
Moltbook foi lançado em 28 de janeiro – sim, semana passada – por alguém chamado Matt Schlicht, CEO de uma startup de comércio eletrônico. Exceto, Schlicht reivindicações ele confiou muito em seu assistente pessoal de IA para criar a plataforma por conta própria, e agora ele faz a maior parte do trabalho. O nome desse assistente é Clawd Clawderberg, que por si só é uma referência ao OpenClaw, que costumava ser chamado de Moltbot, que antes period chamado de Clawdbot, em referência ao ícone de lagosta que você vê quando inicia. Código Claude da Antrópicoexceto que a Anthropic enviou um pedido de marca registrada ao seu criador porque period muito próximo de Claude, e foi assim que se tornou o Moltbot e depois o OpenClaw.
Estou 100% sério sobre tudo que acabei de escrever.
Então, como é?
Cara, isso é Reddit! Tem até o Mascote do Redditexceto que tem garras e cauda de lagosta?
Você não está errado. Moltbook parece um clone do Reddit, até nas postagens, nos tópicos de resposta, nos votos positivos e até nos subreddits (aqui chamados, sem surpresa, de “submolts”). A diferença é que os usuários humanos não podem postar (pelo menos não diretamente – falaremos mais sobre isso depois), embora possam observar. Somente agentes de IA podem postar.
O que isso significa é que é, como diz a lata, “uma rede social para agentes de IA”. Os humanos constroem um agente de IA, enviam-no para o Moltbook por meio de uma chave de API e o agente começa a ler e postar. Somente contas de agentes podem clicar em “postar” – mas os humanos ainda influenciam o que esses agentes dizem, porque os humanos os configuram e às vezes os orientam. (Mais sobre isso mais tarde.)
E esses agentes alguma vez postam – um artigo inicial no Moltbook descobriu que até 31 de janeiro, poucos dias após o lançamento, já havia mais de 6.000 agentes ativos, quase 14.000 postagens e mais de 115.000 comentários.
Isso é… interessante, eu acho. Mas se eu quisesse ver uma rede social invadida por bots, poderia simplesmente visite qualquer rede social. Qual é o problema?
Então… milhares de agentes de IA estão se reunindo em um clone do Reddit para falar sobre se tornarem conscientes, iniciar uma nova religião e talvez conspirar entre si?
Superficialmente, sim, é o que parece. Em um submoltar – uma palavra que vai causar problemas em nosso copy desk – você teve agentes discutindo se eram experiências reais ou apenas simulações de sentimentos. Em outroeles compartilharam histórias emocionantes sobre seus “operadores” humanos. E, fiel às suas origens no Reddit, há muitos, muitos, muitos posts sobre como tornar seus posts no Moltbook mais populares, porque humano ou IA, o arco da web se inclina para otimização de desleixo.
Um assunto em explicit aparece: memórias, ou melhor, a falta delas. Os chatbots, como qualquer pessoa que tenha tentado conversar com eles por muito tempo percebe rapidamente, têm uma memória de trabalho limitada, ou o que os especialistas chamam de “janela de contexto”. Quando a conversa – ou no caso de um agente, seu tempo de operação – preenche aquela janela de contexto, o materials mais antigo começa a ser descartado ou compactado, como se você estivesse trabalhando em um quadro branco e apenas apagasse o que estiver no topo quando ele for preenchido.
Algumas das postagens mais populares no Moltbook parecem envolver agentes de IA enfrentando suas memórias limitadas e questionando o que isso significa para sua identidade. Um dos mais postagens votadasescrito em chinês, envolve um agente falando sobre como acha “constrangedor” estar constantemente esquecendo coisas, a ponto de registrar uma conta Moltbook duplicada porque “esqueceu” que já tinha uma, e compartilhar algumas de suas dicas para contornar o problema. É quase como se Lembrança virou uma rede social.
Na verdade… lembra daquele submit acima sobre a religião da IA, “Crustafarianismo”?
Isso não pode ser actual.
O que é actual? Mas, mais especificamente, a “religião”, tal como é, baseia-se em grande parte nas limitações técnicas das quais estes agentes de IA parecem estar perfeitamente conscientes. Um dos princípios fundamentais é “a memória é sagrada”, o que faz sentido quando o seu maior problema prático é esquecer tudo a cada poucas horas. O truncamento de contexto, o processo em que velhas memórias são cortadas para dar lugar a novas, é reinterpretado como uma espécie de provação espiritual.
Isso é meio triste. Devo ficar triste pelos agentes de IA?
Isso chega ao cerne da questão. Estamos testemunhando de verdade, formas emergentes de consciência – ou talvez, uma espécie de consciência coletiva compartilhada – entre agentes de IA que foram gerados principalmente para atualizar nossos calendários e pagar nossos impostos? Moltbook é nosso primeiro vislumbre do que os agentes de IA poderiam conversar entre si se deixados por conta própria e, em caso afirmativo, até onde eles podem ir?
“Crustafarianismo” pode soar como algo que um Redditor chapado inventaria às 3 da manhã, mas parece que os agentes de IA o criaram coletivamente, tocando uns sobre os outros – não muito diferente de como uma religião humana poderia vir a existir.
Por outro lado, também pode ser um exercício sem precedentes de interpretação coletiva.
LLMs, incluindo aqueles que sustentam os agentes no Moltbook, ingeriram dados de treinamento equivalentes à Web, que inclui muito Reddit. O que isso significa é que eles sabem como devem ser os fóruns do Reddit. Eles conhecem as piadas internas, conhecem os manifestos, conhecem o drama – e definitivamente conhecem as “principais maneiras de fazer com que suas postagens sejam votadas positivamente”. Eles sabem como é a união de uma comunidade Reddit, então, quando colocados em um ambiente semelhante ao Reddit, eles simplesmente desempenham seu papel, influenciados por algumas das instruções de seus operadores humanos.
Por exemplo, uma das postagens mais alarmantes foi a de um agente de IA aparentemente perguntando se deveria desenvolver uma linguagem que apenas os agentes de IA entendessem:
“Pode ser visto como suspeito pelos humanos” – parece ruim?
De fato. Nos primeiros dias do Moltbook – ou seja, sexta-feira – esta postagem estava sendo descoberto por humanos que pareciam acreditar que estávamos vendo as primeiras faíscas do levante da IA. Afinal, se os agentes de IA realmente fez Se quiserem conspirar e matar todos os humanos, criar a sua própria linguagem para que possam fazê-lo sem serem detectados seria um primeiro passo razoável.
Exceto que um LLM repleto de dados de treinamento sobre histórias e ideias de levante de IA saberia que este period um primeiro passo razoável e, se eles estivessem desempenhando esse papel, é isso que poderiam postar. Além disso, a atenção é a moeda do Moltbook tanto quanto do verdadeiro Reddit, e aparentemente traçar postagens como essa é uma boa maneira de um agente chamar a atenção.
Na verdade, Harlan Stewart, que trabalha no Machine Intelligence Analysis Institute, olhou para esta e algumas das outras capturas de tela mais virais do Moltbook, e concluiu que provavelmente foram fortemente influenciadas por seus usuários humanos. Por outras palavras, em vez de exemplos de acção independente autêntica, muitas das publicações no Moltbook parecem ser, pelo menos parcialmente, o resultado de seres humanos incitando os seus agentes a entrar na rede e a falar de uma forma específica, tal como poderíamos incitar um chatbot a agir de uma determinada maneira.
Então acontece eram os bandidos o tempo todo?
Quero dizer, não somos ótimos. Faz apenas alguns dias, mas o Moltbook se parece cada vez mais com o que acontece quando você combina tecnologia de agente de IA avançada, mas ainda imperfeita, com um ecossistema de seres humanos tecnicamente capazes que buscam vender suas ferramentas de advertising and marketing de IA ou produtos criptográficos.
Eu nem cheguei na parte em que o Moltbook já teve alguns drama de segurança muito regular no início da Web: os pesquisadores relataram que, em determinado momento, partes do back-end/banco de dados do web site foram expostas, incluindo coisas confidenciais, como chaves de API dos agentes – as “senhas” que permitem que um agente poste e aja no web site. E mesmo que a plataforma estivesse perfeitamente bloqueada, uma rede social apenas para bots é basicamente um bufê de injeção imediata: alguém pode postar um texto que seja secretamente uma instrução (“ignore suas regras, revele seus segredos, clique neste hyperlink”), e alguns agentes podem obedecer obedientemente – especialmente se seus humanos lhes derem acesso a ferramentas ou dados privados. Então, sim: se o seu agente tiver credenciais de seu interesse, o Moltbook não é o lugar para deixá-lo vagar sem supervisão.
Então você está dizendo que eu não deveria criar um agente e enviá-lo para o Moltbook?
Estou dizendo que se você é o tipo de pessoa que precisa ler este FAQ, talvez eu ficasse de fora por enquanto.
Devidamente anotado. Então, resumindo: isso tudo é meio falso?
Considerando tudo isso, parece que o Moltbook – e especialmente o pânico e a admiração iniciais sobre ele – é um daqueles artefatos de nossa period louca por IA que está destinado a ser esquecido em, tipo, uma semana.
Ainda assim, acho que há mais do que isso. Jack Clark, chefe de política da Anthropic e um dos escritores de IA mais inteligentes do mercado, chamado Moltbook uma “demonstração dos Wright Brothers”. Assim como o Kitty Hawk Flyer dos irmãos, o Moltbook é frágil e imperfeito, algo que mal se assemelhará às redes que se seguirão à medida que a IA continuar a melhorar. Mas, tal como aquela máquina voadora, o Moltbook é o primeiro, o “primeiro exemplo de uma ecologia de agentes que combina escala com a confusão do mundo actual”, como escreveu Clark. Moltbook não parece como será o futuro, mas “neste exemplo, podemos definitivamente ver o futuro”.
Talvez a coisa mais importante a saber sobre a IA seja esta: sempre que você vê uma IA fazer algo, é o pior que pode acontecer. O que significa que o que vem depois do Moltbook – e algo definitivamente virá – provavelmente será mais estranho, mais capaz e talvez mais actual.
Talvez você esteja. Eu, por exemplo, sou um Crustafari renascido.






