

No início deste ano, a empresa de análise Forrester revelado a sua lista das 10 principais tecnologias emergentes de 2024, e várias das tecnologias da lista relacionadas com agentes de IA – modelos que não apenas geram informação, mas podem executar tarefas complexas, tomar decisões e agir de forma autónoma.
“As IAs anteriores que podiam fazer coisas eram restritas e restritas a um ambiente específico, usando coisas como aprendizagem por reforço. O que estamos vendo hoje é aproveitar os recursos de grandes modelos de linguagem para dividir essas instruções em etapas específicas e depois executar essas etapas com ferramentas diferentes”, disse Brian Hopkins, vice-presidente do portfólio de tecnologia emergente da Forrester, durante uma reunião. episódio do nosso podcast“O que é o desenvolvedor?”
Quando se trata de desenvolvimento de software program, a IA generativa tem sido comumente usada para ajudar a gerar código ou auxiliar na conclusão do código, economizando tempo dos desenvolvedores. A Agentic AI ajudará ainda mais os desenvolvedores, auxiliando-os em mais tarefas ao longo do ciclo de vida de desenvolvimento de software program, como brainstorming, planejamento, construção, teste, execução de código e implementação de correções, explicou Shuyin Zhao, vice-presidente de produto da GitHub.
“Os agentes servem como parceiros adicionais para os desenvolvedores, cuidando de tarefas rotineiras e repetitivas e liberando os desenvolvedores para se concentrarem em pensamentos de nível superior. No GitHub, pensamos nos agentes de IA como sendo muito parecidos com LEGOs – os blocos de construção que ajudam a desenvolver sistemas mais avançados e a mudar o processo de desenvolvimento de software program para melhor”, explicou Zhao.
Um exemplo de agente de IA para desenvolvimento de software program é o da IBM lançado recentemente uma série de agentes que podem resolver automaticamente problemas do GitHub, liberando os desenvolvedores para trabalhar em outras coisas, em vez de ficarem presos corrigindo seu acúmulo de bugs. O conjunto IBM SWE-Agent inclui um agente de localização que localiza o arquivo e a linha de código que está causando o problema, um agente que edita linhas de código com base nas solicitações do desenvolvedor e um agente que pode desenvolver e executar testes.
Outros exemplos de agentes de IA no desenvolvimento de software program incluem Devin e Agentes copiloto do GitHube foi relatado que OpenAI e Google ambos estão trabalhando no desenvolvimento de seus próprios agentes também.
Embora esta tecnologia ainda seja relativamente nova, o Gartner recentemente previsto que 33% do software program empresarial conterá capacidades de IA de agente até 2028 (em comparação com menos de 1% em 2024), e essas capacidades permitirão que 15% das decisões do dia-a-dia sejam tomadas de forma autónoma.
“Ao fornecer agência de inteligência synthetic, as organizações podem aumentar o número de tarefas e fluxos de trabalho automatizáveis. Os desenvolvedores de software program provavelmente serão os primeiros afetados, à medida que os assistentes de codificação de IA existentes ganham maturidade”, escreveu o Gartner em sua previsão.
Especialização e arquiteturas multiagentes
LLMs atuais como GPT-4o ou Claude são “pau para toda obra, mestres de ninguém”, o que significa que eles realizam uma ampla gama de tarefas de forma satisfatória, desde escrever poesia até gerar código e resolver problemas matemáticos, explicou Ruchir Puri, cientista-chefe da IBM. Os agentes de IA, por outro lado, precisam ser treinados para realizar uma tarefa específica, usando uma ferramenta específica. “Hoje, essa ferramenta é certificada para realizar esse processo handbook e, se vou apresentar um agente, ele deverá usar essa ferramenta”, disse ele.
Dado que cada agente é altamente especializado, a questão é: como fazer com que muitos deles trabalhem juntos para resolver problemas complexos? Segundo Zhao, a resposta é uma arquitetura multiagente, que é uma rede de muitos desses agentes especializados que interagem entre si e colaboram em um objetivo maior. Como cada agente é altamente especializado em uma tarefa específica, juntos eles são capazes de resolver problemas mais complexos, disse ela.
“No GitHub, nossa plataforma Copilot Workspace usa uma arquitetura multiagente para ajudar os desenvolvedores a passar da ideia ao código inteiramente em linguagem pure. Em termos simples, são uma combinação de agentes especializados que, quando combinados, podem ajudar os desenvolvedores a resolver problemas complexos de forma mais eficiente e eficaz”, explicou Zhao como exemplo.
Puri acredita que implementar um sistema multiagente não é muito diferente de como uma equipe humana se reúne para resolver problemas complexos.
“Você tem alguém que é engenheiro de software program, alguém que é SRE, alguém que faz outra coisa”, explicou Puri. “É assim que nós, humanos, aprendemos a realizar tarefas complexas, com uma mistura de habilidades e pessoas especialistas em diversas áreas. É assim que prevejo a evolução desses agentes também, à medida que continuamos avançando com a coordenação multiagente e o comportamento complexo multiagente.”
Pode-se pensar que, dada a reputação da IA generativa de ter alucinações, aumentar o número de agentes trabalhando juntos pode possivelmente aumentar o impacto das alucinações, porque à medida que o número de decisões tomadas aumenta, o potencial para uma decisão errada ser tomada em algum momento na cadeia também sobe. No entanto, existem maneiras de mitigar isso, segundo Loris Degionnai, CTO e fundador da Sysdiguma empresa de segurança que desenvolveu seus próprios agentes de IA para segurança.
“Existem estruturas e camadas que podemos montar para aumentar a precisão e diminuir os erros, especialmente quando esses erros são importantes e críticos”, disse ele. “A Agentic AI pode ser estruturada para que haja diferentes camadas de LLMs, e algumas dessas camadas existem, essencialmente, para fornecer validação.”
Ele também explicou que, mais uma vez, as salvaguardas para arquiteturas multiagentes podem imitar as salvaguardas que uma equipe de humanos possui. Por exemplo, num centro de operações de segurança, existem trabalhadores iniciantes que são menos qualificados, mas que podem revelar coisas suspeitas a um segundo nível de trabalhadores mais experientes, que podem fazer a distinção entre coisas que precisam de ser mais investigadas e aquelas que pode ser desconsiderado com segurança.
“No desenvolvimento de software program, ou mesmo na segurança cibernética, existem níveis, existem camadas de redundância quando há pessoas fazendo esse tipo de coisa, para que uma pessoa possa verificar o que a pessoa anterior fez”, disse Degionnai.
Os agentes de IA ainda estão construindo a confiança dos desenvolvedores
Tal como havia cepticismo sobre a forma como a IA generativa poderia escrever código, provavelmente também haverá um período em que os agentes de IA precisarão de ganhar confiança antes de serem enviados para tomar decisões por conta própria, sem intervenção humana. De acordo com Puri, as pessoas provavelmente precisarão ver um resultado muito consistente dos agentes por um longo período de tempo antes de se sentirem totalmente confortáveis com isso.
Ele comparou isso à confiança que você deposita em seu carro todos os dias. Você chega todas as manhãs e leva você do ponto A ao ponto B, e mesmo que a pessoa comum não saiba como funciona o motor de combustão interna, ela confia que ele funcionará e os levará ao seu destino com segurança. E, se não funcionar, eles sabem a quem levar para que funcione novamente.
“Você coloca sua vida ou a vida de sua família naquele carro e diz que deveria funcionar”, disse Puri. “E esse, para mim, é o nível de confiança que você precisa para obter nessas tecnologias, e essa é a jornada em que você está. Mas você está no início da jornada.”
Desafios que precisam ser resolvidos antes da implementação
Além de construir confiança, ainda há uma série de outros desafios que precisam ser enfrentados. Uma delas é que os agentes de IA precisam ser complementados com dados corporativos, e esses dados precisam ser atualizados e precisos, explicou Ronan Schwartz, CEO da empresa de dados. K2view.
“O acesso a essas informações, a espinha dorsal crítica da organização, está realmente no centro do funcionamento de qualquer IA”, disse Schwartz.
O custo é outro problema, pois cada consulta é uma despesa, e os custos podem ficar ainda mais altos ao trabalhar em um grande conjunto de dados devido à computação e ao processamento necessários.
Da mesma forma, a velocidade e a interatividade de um agente são importantes. Não é realmente aceitável esperar duas horas para que uma consulta seja respondida, portanto, é necessária uma latência menor, explicou Schwartz.
A privacidade e a segurança dos dados também precisam ser consideradas, especialmente quando um sistema contém vários agentes interagindo entre si. É importante garantir que um agente não compartilhe informações às quais outro não deveria ter acesso, disse ele.
“Seja muito, muito cuidadoso ao avaliar ferramentas e implante apenas ferramentas de fornecedores que priorizem claramente a privacidade e a segurança”, disse Zhao do GitHub. “Deve haver documentação clara explicando exatamente como um fornecedor está processando os dados da sua empresa para fornecer o serviço, quais medidas de segurança eles possuem – incluindo filtros para vulnerabilidades conhecidas, conteúdo prejudicial, and many others. claramente documentado, isso é uma bandeira vermelha.”
E, finalmente, os agentes de IA precisam ser confiáveis, pois agem em nome de outra pessoa. Se os dados com os quais operam não forem confiáveis, então “isso pode criar toda uma cadeia de ações desnecessárias ou um conjunto errado de ações”, explicou Schwartz.
Previsões para o que está por vir
Jamil Valliani, chefe de produto de IA da Atlassianoacredita que 2025 será o ano do agente de IA. “Os agentes já são muito bons em aumentar e acelerar nosso trabalho – no próximo ano, eles ficarão ainda melhores na execução de tarefas altamente específicas, na realização de ações especializadas e na integração entre produtos, tudo com humanos no circuito”, disse ele. “Estou muito entusiasmado em ver os agentes se tornando exponencialmente mais sofisticados na forma como podem colaborar com as equipes para lidar com tarefas complexas.”
Ele acredita que os agentes de IA estão se beneficiando do fato de que os modelos básicos estão evoluindo e agora são capazes de raciocinar sobre conjuntos de dados cada vez mais ricos. Esses avanços não apenas melhorarão a precisão dos agentes, mas também permitirão que eles aprendam continuamente com as experiências, da mesma forma que um colega de equipe humano faria.
“Nosso relacionamento com eles evoluirá e veremos o desenvolvimento de novas formas de colaboração e comunicação nas equipes”, disse ele.
Steve Lucas, CEO da Bummiprevê que nos próximos três anos, os agentes de IA superarão o número de humanos. Isto não significa que os agentes eliminarão necessariamente os empregos humanos, porque à medida que o número de agentes aumenta, aumenta também a necessidade de supervisão e manutenção humana.
“Nesta evolução, protocolos e governação transparentes são importantes para o sucesso da IA e tornar-se-ão mais significativos à medida que os agentes se integram no futuro do trabalho”, disse ele.
Schwartz, da K2view, concorda que o futuro native de trabalho não é aquele em que os agentes fazem tudo, mas sim um native onde humanos e agentes trabalham lado a lado.
“Acho que às vezes as pessoas cometem o erro de pensar que os humanos irão acionar o agente e que o agente fará o trabalho. Acho que o mundo será mais equilibrado, onde os agentes também acionarão os humanos para realizarem determinados trabalhos”, disse ele.