top of page

Claude e o ponto de virada A hora em que a execução mudou de lado



Eu vou te colocar dentro de uma cena que eu já vi muitas vezes e que quase sempre termina igual. Sala de reunião impecável, mesa com nomes grandes, um conselho que carrega décadas de experiência, um CEO com faro para risco e um CIO que já apanhou o suficiente para saber que tecnologia nunca é só tecnologia.


Alguém encosta no tema IA com o cansaço de quem ouviu demais e com a pressa de quem quer encerrar logo, isso é hype, isso passa, isso é para marketing. A conversa segue, as decisões continuam no mesmo trilho, e o assunto vai embora como se fosse mais um modismo e a reunião termina como se não tivesse acontecido, mas sempre de forma confortável.


Só que no fim de fevereiro de 2026 esse conforto ficou caro. O que apareceu não foi um modelo escrevendo melhor, nem um robô de atendimento fingindo empatia, nem um slide prometendo produtividade. Foi mudança de natureza, pois a IA saiu do papel de ferramenta que sugere e entrou no papel de quem executa.


Na execução é o lugar onde o erro vira prejuízo, processo, retrabalho, incidente e manchete, por isso quando a execução muda de lado, o jogo muda para o negócio, para o risco, para o capital e para a reputação.


O protagonista desse ponto de virada foi o Claude, da Anthropic, uma empresa fundada em 2021 por ex-integrantes da OpenAI. A tese deles parece moral, mas é profundamente econômica. Se a IA vai entrar em processos críticos, ela precisa nascer com segurança, ética e alinhamento a valores humanos como estrutura, não como guardrails ou detalhe de configuração. Confiança não é discurso, é operação, e operação séria exige redução de risco e raciocínio responsável, especialmente quando a máquina começa a tocar o que antes era exclusivo de especialistas.


O primeiro sinal de que não dava mais para tratar IA como brinquedo apareceu com o Claude Cowork, uma abordagem em que agentes atuam como colegas virtuais dentro do fluxo empresarial. Aqui não estou falando de texto gerado para você ajustar, estou falando de trabalho profissional feito dentro de rotinas jurídicas. O agente revisa contratos, analisa NDAs, monitora conformidade, produz resumos legais e se integra aos processos que sustentam a empresa. Até ontem isso consumia horas humanas, camadas de revisão e fila de demanda, sustentando aquele argumento confortável de que só gente dá conta e agora, de repente, surge um executor digital que faz, e faz em escala.


Na sequência veio o Claude Code Security, em preview limitado, e aqui a conversa encosta no nervo exposto da área de tecnologia, em especial a cibersegurança. Muitos de nós sabemos que segurança de software sempre foi método e dor ao mesmo tempo.

Você sabe que precisa, sabe que custa caro, sabe que o risco é existencial, e mesmo assim vive com backlog, exceção e remendo, porque a realidade do time nunca é a realidade do discurso.


A proposta do Claude Code Security nessa camada é simples e perigosa. Ela vai além do escaneamento básico, identifica vulnerabilidades de alta severidade em bases de código, sugere patches inteligentes e personalizados para revisão humana, e simula cenários de ataque para fortalecer as defesas.


O efeito prático é acelerar ciclos de código seguro e reduzir custo de auditoria manual, sem tirar a responsabilidade do humano que aprova, porque o patch sugerido ainda precisa passar por engenharia, testes e governança.


Quando uma capacidade nova entra no mundo, a reação verdadeira não é o que as pessoas postam. É o que o capital precifica e o mercado não compra narrativa por educação, ele compra e vende por risco.


Em poucos dias, mais de US$ 830 bilhões evaporaram de ações ligadas a software, serviços financeiros, gestão de ativos e publicações jurídicas. Por exemplo, a Thomson Reuters chegou a cair 18 por cento, e empresas como RELX, Experian, Sage e Pearson também foram atingidas.


Não é que ficaram incompetentes do nada, é que o investidor enxergou a pergunta que corta como faca, pois, se tarefas intelectuais repetitivas virarem rotina para agentes de IA, o que acontece com modelos de negócio baseados em mão de obra manual, pesquisa tradicional e intermediação de dados vendida como inevitável?


O setor de cibersegurança também sentiu o peso dessa mesma pergunta, pois em poucos dias, mais de US$ 50 bilhões em valor de mercado se perderam, com quedas em nomes como CrowdStrike, Okta, Cloudflare e Zscaler.


O recado é desconfortável, mas limpo. Se parte do trabalho de descoberta de falhas e recomendação de correções começa a ser acelerado por agentes, certas camadas tradicionais serão reprecificadas e quando a percepção muda, a negociação muda, a margem muda, e o conselho precisa mudar junto, não com opinião, mas com governança.


Esse movimento de aversão ao risco foi apelidado de “AI Scare Trade”. A ideia é antiga. Quando o futuro parece instável, o dinheiro foge do que é percebido como promessa e corre para o que é percebido como lastro, como commodities e infraestrutura.


Como o mercado é um organismo conectado por nervos invisíveis, essa rotação respingou também em criptomoedas como o Bitcoin, tanto por correlação com tech quanto pelo temor de que a IA mude premissas de confiança que muita gente tratava como intocáveis. Vale afirmar que não estou aqui para fazer profecia sobre cripto, até porque não é a minha área, mas estou aqui para lembrar que o medo não pede licença e não respeita fronteiras conceituais.


Agora coloca isso no Brasil e o alerta cresce. A nossa estrutura de serviços ainda depende muito de processos intensivos em gente, especialmente no jurídico e no financeiro.


Isso não é julgamento, é característica histórica de um país que se organizou com burocracia como método e, muitas vezes, como barreira de entrada como sistema funcional de proteção.


Portanto, quando agentes começam a executar rotinas que eram sustentadas por hora, por fila e por assinatura, a vulnerabilidade aumenta, porque o ajuste não é só tecnológico, é cultural e econômico e o capital global, quando decide se proteger, amplifica instabilidade local sem delicadeza.


Aqui entra uma parte que eu considero inevitável. Tecnologia só assusta quando ela toca no que a gente chama de trabalho. Por séculos, trabalho qualificado foi ofício, foi guilda, foi formação lenta, foi linguagem própria, foi tempo investido e responsabilidade assumida.


Um escriba era valioso porque escrevia, mas também porque guardava memória e garantia legitimidade. Um advogado não é valioso porque lê cláusulas, mas porque responde por consequência. Um profissional de segurança não é valioso porque encontra falhas, mas porque sustenta confiança em sistemas invisíveis. O que a IA faz agora é separar com assertividade o que é repetição verificável do que é julgamento contextual e do que é relação de confiança.


Essa separação deveria orientar qualquer conversa madura num conselho, porque não é discussão sobre ferramenta, é discussão sobre natureza do valor. Dentro do seu negócio, o que é procedimento que pode ser industrializado sem trair o que você promete ao cliente. O que é decisão que exige contexto, história e prudência. O que é confiança que não se delega, porque responsabilidade não se terceiriza para um modelo, por melhor que ele seja.

Quando você não faz essa distinção, você cai no erro infantil de achar que tudo é automatizável ou de achar que nada é automatizável, e os dois extremos viram fuga de quem não sabe lidar com o tema.


E tem um ponto que eu faço questão de cravar. Quando um agente revisa contrato ou sugere um patch, ele não é um estagiário digital. Ele é um sistema que interfere na sua governança. Se um contrato passa com cláusula ruim, se um patch abre uma porta nova, se um resumo automático vira base de decisão equivocada, isso não vira culpa do algoritmo. Isso vira falha de gestão, porque responsabilidade sempre teve dono e somos responsáveis por criar essas camadas. Por isso a conversa correta não é pânico nem euforia e sim maturidade operacional.


O uso da IA como agente deixa de ser inovação periférica e entra como risco operacional e reputacional no fim do dia e esse risco operacional se trata com disciplina, aquela disciplina que os antigos conheciam e que os mais novos tentam substituir por velocidade. Disciplina no meu ver quer dizer trilha de auditoria, critérios de aprovação, segregação de função e registro de decisão, porque é isso que sustenta confiança em escala.


No Brasil essa disciplina encosta direto na LGPD, em controles de dados e em setores regulados. Se um agente toca dado pessoal, você precisa de base legal, controle de acesso e retenção definida, porque governança de dados não é opcional. Regulador não se sensibiliza com a palavra inovação, ele pergunta sobre o critério aplicado, registro, teste, revisão e resposta a incidente, e a resposta precisa existir antes do incidente, não depois.


A oportunidade é enorme, mas ela não nasce de comprar licença e mandar o time brincar. Ela nasce de redesenhar o trabalho e quem tiver coragem de eliminar camadas inúteis, redefinir o que precisa de assinatura humana e elevar o nível do papel humano vai ganhar tempo, margem e robustez.


Quem apenas colocar o agente em cima de processo velho vai automatizar o caos e vai chamar isso de transformação. Se você quer um critério simples, quase tradicional, ele é esse.


Penso que a empresa imatura vai perguntar qual a ferramenta para usar. A empresa madura, vai perguntar quais decisões devem continuar na mão dos humanos e quais podem ser recomendadas para as máquinas com transparência, e quais execuções podem ser automatizadas com controle, porque entende que tecnologia é engrenagem dentro de uma arquitetura de responsabilidade.


Eu fecho com três perguntas para pensarmos sobre o tema. Que tarefas do seu negócio já são repetição verificável e poderiam ser assumidas por agentes sem destruir o que você promete?


O valor que você entrega está no volume manual ou no julgamento humano com contexto e responsabilidade?


Sua cultura, seus processos e seu modelo de decisão estão prontos para esse deslocamento, ou você ainda está tratando IA como acessório de produtividade?


A tradição que vale é a tradição da boa governança e para mim, o resto é negação com custo diferido.


Keine Alves, líder educador, pesquisador e filósofo aplicado

Comentários


bottom of page