O desenvolvimento de software sempre avançou acompanhando as mudanças tecnológicas — da adoção de sistemas de controle de versão distribuídos e pipelines de CI/CD à consolidação de containers e Kubernetes. A IA Generativa é a mais nova onda dessa transformação, criando uma tensão que as comunidades de software livre não podem mais ignorar: a IA facilita a criação de código, mas torna o processo de revisão exponencialmente mais complexo.
Recentemente, o projeto Kyverno introduziu uma política de uso de IA. Essa decisão não é tecnofobia, mas uma resposta pragmática aos limites de escala da atenção humana. O ponto de partida foi um caso prático: 20 Pull Requests abertos em apenas 15 minutos. Esse volume inunda os canais de comunicação e sobrecarrega os mantenedores, levantando a dúvida: o problema não é a geração do código, mas o gargalo cognitivo que a revisão humana impõe antes de qualquer merge.
No ambiente de open source, a premissa fundamental permanece: deve haver um ser humano no loop. Cada PR precisa ser lido, compreendido, validado quanto à segurança e assertividade técnica, e avaliado em termos de manutensibilidade a longo prazo. Quando surgem volumes massivos de código gerado por IA com baixa qualidade ou falta de contexto, o custo operacional é transferido para quem mantém o projeto. Isso não apenas exaure os responsáveis, mas gera uma fila de espera que prejudica contribuições legítimas.
Estamos presenciando um racha cultural. De um lado, os céticos que resistem à IA; do outro, os entusiastas que buscam automação a qualquer custo. Contudo, a história nos mostra que a resistência pura leva à obsolescência, enquanto a adoção sem guardrails gera dívida técnica. A chave não é a substituição do humano pelo código, mas a manutenção da responsabilidade. Contribuições sólidas exigem que o autor entenda o que está sendo injetado no código-fonte. "Own your commit" (“Assuma a responsabilidade pelo seu commit”) é o mantra que deve guiar essa nova era: a IA é um copiloto, não um autor responsável. O uso de diretrizes de transparência — onde o autor declara o uso de IA — torna-se, portanto, uma peça essencial na infraestrutura de confiança do projeto.
Empresas brasileiras que dependem de stacks cloud-native devem replicar essa lógica. Projetos como o Kyverno demonstram que, mesmo em escala enterprise, definir regras claras de participação é o que mantém a estabilidade e a segurança. Adotar IA no fluxo de desenvolvimento é excelente para acelerar tarefas repetitivas, geração de docs ou scaffolding, mas nunca para substituir o pensamento crítico. O desafio real é construir governança técnica que consiga filtrar o ruído sem abafar a inovação.
*Artigo originalmente publicado por Cortney Nickerson, CNCF Ambassador, Head of Community at Nirmata and Kyverno Maintainer em Cloud Native Computing Foundation.