Nos últimos dias, decidi aumentar a utilização de agentes de Inteligência Artificial no meu fluxo de trabalho diário — algo que eu ainda explorava com certo receio e pouca eficiência. O objetivo era direto: usar IA para dar o pontapé inicial no desenvolvimento, reduzir boilerplate e liberar tempo para focar no que realmente importa — entender documentação, refinar código e evoluir arquitetura.
Testei essa abordagem utilizando o SpecKit em alguns spikes (provas de conceito). Antes de envolver qualquer agente, todos os estudos foram conduzidos manualmente para garantir entendimento real das tecnologias. A partir disso, estruturei prompts mais assertivos e comecei a aplicar nos agentes.
Abaixo compartilho o fluxo, a estratégia de uso e os resultados práticos dessa experiência.
O processo foi consistente em todos os experimentos:
Estudo Manual
Entendimento profundo das tecnologias, limitações e trade-offs antes de envolver IA.
Geração dos Prompts
Estruturação baseada na arquitetura e requisitos levantados.
Seleção das Skills Necessárias
Injeção de contexto externo (via CLI) para ensinar o agente sobre ecossistemas específicos.
Aplicação dos Prompts
Geração da base do código.
Refinamento do Código
Ajustes manuais ou via iteração com IA.
Implantação e Testes/Validações
Deploy (ex: AWS) e validação funcional.
Finalização e Documentação
Consolidação dos aprendizados com evidências (logs, outputs, decisões).
A Injeção de Skills
Modelos fundacionais são bons em lógica geral, mas falham quando entram em cenários reais: APIs específicas, boas práticas atualizadas de CI/CD, padrões cloud.
A virada de chave veio na etapa de injeção de skills.
Em vez de usar IA “crua”, comecei a acoplar conhecimento externo diretamente no agente, exemplo:
npx skills add https://github.com/callstackincubator/agent-skills --skill github-actions
npx skills add https://github.com/github/awesome-copilot --skill dependabot
npx skills add https://github.com/claude-office-skills/skills --skill devops-automation
Resultado: o agente deixa de ser um gerador genérico e passa a operar com contexto real de tooling, padrões e automações modernas.
Isso reduz drasticamente:
- Alucinação
- Código obsoleto
- Decisões arquiteturais ruins
Batalha de Modelos: Raptor Mini vs. Claude Sonnet 4.5
Durante os experimentos (principalmente com IaC e automação), alternei entre dois modelos. O comportamento foi bem distinto.
Raptor Mini Preview (GPT-5 Mini fine-tuned)
Pontos fortes:
- Rápido
- Ótimo para scaffolding inicial
- Boa estruturação de módulos Terraform e recursos cloud
Limitações:
- Superficialidade em cenários complexos
Fragilidade em:
- Networking avançado
- Integrações multi-serviço
Na prática: excelente para começar, mas exige intervenção humana forte.
Claude Sonnet 4.5 (via Copilot)
Pontos fortes:
- Muito mais consistente em automações complexas
- Excelente raciocínio em workflows multi-step
- Com skills injetadas, entrega outputs quase prontos para produção
Caso real:
- Analisou versões em múltiplos repositórios
- Aplicou mudanças com segurança
Tudo isso com menos intervenção manual.
Conclusão da Experiência
Os testes deixaram claro: agentes de IA são um divisor de águas — quando usados com método.
O que impressiona
Onde mora o risco
- Delegação total ainda é baixa
- IA falha em:
- cenários com múltiplas dependências
- Sem base técnica, o resultado degrada rápido
O Insight Principal
O ganho não vem de “pedir para a IA fazer”.
Vem de:
Transformar o seu entendimento em um prompt estruturado.
A IA não substitui o estudo — ela amplifica quem já sabe o que está fazendo.
Compartilha como você está abordando isso — principalmente em contexto de infra, automação ou platform engineering.