
| O seguinte artigo apareceu originalmente em Médio e está sendo republicado aqui com permissão do autor. |
Não me interpretem mal, fico acordado a noite toda usando essas ferramentas.
Mas também sinto que estamos caminhando para uma ressaca cara. Outro dia, um colega me contou sobre uma nova proposta para encaminhar um milhão de documentos por dia através de um sistema que identifica e take away números da Segurança Social.
Eu brinquei que esta seria uma “expressão common de um milhão de dólares”.
Faça as contas da implementação “ingênua” com GPT-5 completo e verá que é impressionante: um milhão de mensagens por dia com cerca de 50 mil caracteres cada uma equivale a cerca de 12,5 bilhões de tokens diariamenteou US$ 15.000 por dia pelo preço atual. Isso é quase US$ 6 milhões por ano para verificar os números do Seguro Social. Mesmo se você migrar para o GPT-5 Nano, ainda gastará cerca de US$ 230.000 por ano.
Isso é um sucesso. Você “economizou” US$ 5,77 milhões por ano…
Que tal executar esse código para um milhão de documentos por dia? Quanto custaria isso:
importar re; s = re.sub(r”bd{3}(- )?d{2}(- )?d{4}b”, “(REDIGIDO)”, s)
Uma instância antiga do EC2 poderia lidar com isso… Uma única instância EC2– algo como um m1.small de 30 dólares por mês – poderia gerar a mesma carga de trabalho com um regex e custar caro algumas centenas de dólares por ano.
O que significa que, na prática, daqui a um ano as empresas ligarão para pessoas como eu dizendo: “Estamos gastando um milhão de dólares para fazer algo que deveria custar uma fração disso – você pode consertar?”
De US$ 15.000/dia a US$ 0,96/dia — acho que estamos prestes a ver muitas empresas perceberem que um modelo de pensamento conectado a um servidor MCP é muito mais caro do que apenas pagar alguém para escrever um script bash. A partir de agora, você poderá fazer carreira com aplicativos não-LLM.