Camadas de serviço para inferência em APIs de modelos
Flex e Priority no Gemini API formalizam o que Google, OpenAI, Anthropic, Vertex e Bedrock já convergem: custo e latência agora são parte do contrato.
A maioria das equipes instala Copilot, Cursor ou Claude Code e não vê o resultado esperado. Falta processo, não ferramenta. Eu ajudo a implementar IA de verdade no workflow de desenvolvimento — do setup à governança.
Ferramentas no nosso toolkit
Muita equipe instala Copilot, Cursor ou Claude Code e para por aí. Os devs não confiam no código gerado, os prompts são genéricos, e cada um usa de um jeito. Eu entro no repositório real, testo com o código da equipe, e configuro as ferramentas pra funcionarem de verdade no contexto de vocês.
Ferramenta instalada é só o começo. Sem processo e treinamento, cada dev usa de um jeito, ninguém confia no que a IA gera, e o código vira uma caixa preta. Eu compartilho anos de experiência prática com a equipe — o que funciona, o que não funciona, e como usar cada modelo e cada ferramenta da melhor forma.
De diagnóstico a resultados mensuráveis — cada etapa com entregáveis claros.
Entro no código, nos workflows, nas ferramentas que o time já usa. Avalio maturidade de IA, gaps nos processos e oportunidades de automação. O resultado é um mapa claro do que tá funcionando, o que não tá, e onde o impacto é maior.
Implemento as melhorias mais óbvias primeiro — configurações que deveriam já estar lá, padrões básicos, primeiras automações. O time vê resultado em dias, não semanas. Isso gera confiança e momentum pro resto do processo.
Ferramentas configuradas do jeito certo, padrões definidos, governança rodando. Integro IA nos pipelines existentes sem quebrar o que já funciona. Cada mudança é incremental, testada e documentada.
Ferramenta sem treinamento é shelfware. Faço workshops práticos com a equipe — melhores práticas por modelo, por ferramenta, por caso de uso real do dia a dia deles. O objetivo é autonomia: o time sai sabendo usar, não dependendo de mim.
Comparo antes e depois com dados reais — produtividade, tempo de ciclo, qualidade de código. Ajusto o que precisa e entrego um roadmap do que vem a seguir. O processo não para: evolui junto com o time.
Sem gerente de projeto no meio, sem junior aprendendo no seu projeto. Eu faço o diagnóstico, configuro as ferramentas, treino o time. Você fala direto com quem faz o trabalho.
Claude Code, Cursor, Copilot, Codex, Antigravity — trabalho com todas e recomendo a que faz sentido pro contexto. Sem partnership, sem viés de vendor.
Qualquer um instala um plugin. A diferença tá em montar o processo: padrões de equipe, governança, métricas. É isso que faz a IA funcionar de verdade.
Não te mando slide. Te entrego ferramenta configurada, workflow rodando, processo que a equipe já está usando — tudo commitado no repositório. Métricas antes e depois desde o dia 1.
Fundador, Naroga LTDA
Engenheiro de software há 20 anos. Fundei a Crawly e o Plexi. A Naroga nasceu de um padrão que vi se repetir em time depois de time: IA instalada, ninguém confiando no resultado, ferramenta virando caixa preta. O gap quase nunca é a ferramenta — é o processo em volta dela. Menos apresentação, mais terminal aberto.
"Adotar ferramenta é fácil. O que faz IA funcionar no time é o processo em volta dela — e esse se constrói linha por linha, no código real, com as pessoas que vão usar."
Me conta por cima qual é o desafio. Eu respondo pessoalmente em até 24h.
das empresas de software já usam IA no desenvolvimento
Futurum Group, 2026dos devs não confiam nos resultados gerados por IA
Stack Overflow Survey, 2025do código commitado no GitHub em 2026 teve assistência de IA
GitHub, 2026mais lentos — devs experientes usando IA sem processo definido
METR, 2025