Christian Souza, ZUP

Por Christian Souza*

A Inteligência Artificial generativa percorreu um caminho significativo desde que entrou no radar da engenharia de software, em 2022. O que começou como uma ferramenta para escrever trechos de código tornou-se um sistema capaz de planejar, tomar decisões e operar ao longo de todo o ciclo de desenvolvimento. Entender essa evolução é fundamental para entregar valor de ponta a ponta.

Nos primeiros meses após o lançamento do ChatGPT, o esforço estava concentrado em construir o texto certo. Para obter código útil, era preciso detalhar o papel que a IA deveria assumir, o contexto do problema, as restrições, o formato esperado da resposta e exemplos do que se queria. Sem isso, o modelo gerava resultados convincentes na aparência, mas pouco confiáveis na prática. Não havia mecanismo robusto para seguir contratos de execução nem para acessar dados externos de forma estruturada.

A segunda fase começou quando as equipes perceberam que precisavam ir além da geração de texto. Era necessário que a resposta do modelo se tornasse uma ação previsível dentro de um sistema real. Surgiram, então, recursos como function calling e saídas estruturadas, que permitem conectar a IA a funções, APIs e fluxos de trabalho com muito menos improviso no código de integração. O resultado prático foi reduzir ambiguidade e tornar a IA utilizável dentro de produtos reais, não apenas em demonstrações isoladas.

Modelos treinados apenas com conhecimento público não conhecem a base de código de uma empresa, sua documentação interna ou as decisões arquiteturais que foram tomadas ao longo dos anos. Para resolver isso, técnicas como RAG (retrieval-augmented generation) passaram a trazer contexto semântico em tempo real durante a consulta ao modelo. O impacto foi direto: respostas mais relevantes e menos genéricas. Software corporativo depende muito mais de contexto local e atualizado do que de conhecimento geral, e esse passo reconheceu isso.

O estágio atual vai além da geração de respostas isoladas. A IA passou a funcionar como um sistema que planeja etapas, usa ferramentas, consulta fontes e executa ações encadeadas. Frameworks de agentes e padrões como o MCP (Model Context Protocol) foram criados para conectar modelos a dados e ferramentas de forma padronizada. Ao mesmo tempo, práticas como o uso de arquivos de configuração de contexto dentro dos próprios repositórios mostram que o contexto deixou de ser um truque individual de quem faz a pergunta e passou a ser parte versionada e compartilhada do projeto.

O gargalo mudou e agora o desafio é controle em escala: plataformas como o Harness ilustram bem onde a indústria chegou. A proposta deixou de ser apenas “gerar código mais rápido” e passou a cobrir o que vem depois: agentes que atuam em pipelines de entrega, testes automatizados, segurança, remediação de vulnerabilidades e operação contínua. A evolução faz sentido porque o problema mudou. Hoje, o desafio central não é escrever software com mais velocidade, mas entregar software com controle, contexto e confiabilidade na escala exigida pelo mercado.

*Christian Souza, executivo de tecnologia com 24 anos de experiência, é Diretor de Arquitetura de Soluções na Zup. Formado em Ciência da Computação com MBA em Gestão Estratégica de TI pela FGV, ele tem especializações em Machine Learning, Data Science e Big Data pelo MIT e AI Strategies for Business pela Kellogg Executive Education.

Sem comentários registrados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *