No último dia do CBTD 2025, na plenária que antecedeu o encerramento, Álvaro Machado Dias fez o que todo neurocientista inquieto faz bem: desencaixou certezas. E não apenas sobre IA — mas sobre a forma como insistimos em controlar o incontrolável.
Ele começou com um ponto que, para muitos, é só sociologia de rodapé — mas para quem desenha estratégia é uma bomba-relógio: Modernidade Líquida, conceito de Zygmunt Bauman, virou realidade dura. Vivemos tempos em que nada é sólido, tudo escapa — inclusive as verdades absolutas que sustentaram negócios por décadas.
Mas Álvaro não parou aí. Ele provocou o público com algo que chamou de mudança de Zeitgeist — o “espírito do tempo” que deixou de ser industrial, previsível, de planilhas lineares, para se tornar um ambiente estocástico: incerto, não-linear, aleatório.
E trouxe evidências: citou suas colunas na Folha de S. Paulo sobre Metamodernidade, esse estado híbrido entre otimismo e ironia que marca nossa cultura de pós-certezas.
No slide que resumiu tudo, uma linha do tempo mostrava: antes, exatidão era o superpoder. Agora, é entender e orquestrar incertezas.
Stochastic Mindset
Chamou isso de Stochastic Mindset, citando a Sequoia Capital: o futuro exige humanos que saibam pilotar “enxames de agentes” (Agent Swarms) — sistemas de IA autônomos, múltiplos, que demandam gerenciamento humano inteligente, não submissão cega.
Álvaro não dourou a pílula. Trouxe manchetes da Forbes, da Anthropic e estudos sobre alucinações de IA. E cravou: “A imprecisão é inaceitável em muitas atividades.” Carros autônomos não podem errar, diagnósticos médicos não podem delirar, chatbots não podem vazar dados sensíveis.
Na tela, os números assustam: modelos de IA líderes podem apresentar até 96% de risco de chantagem de dados sensíveis, segundo a Anthropic. Flow Exploits e Data Leaks são o lado B dessa revolução.
“O amanhã que criamos hoje”, Álvaro repetiu, não é um manifesto de palco. Então, é um alerta: empresas que tratam IA como commodity de plug & play sem pensar em contexto humano, governança e propósito ético, só reforçam a confusão líquida — não a resolvem.
Para quem lidera, segundo Álvaro Machado, fica o recado:
- Desenvolva mentalidade estocástica: aceite que incerteza não é ameaça, mas parte da nova lógica;
- Construa orquestração ética: não delegue tudo à IA — seja o maestro dos seus agentes;
- Crie cultura de supervisão: o futuro não é autônomo, é interdependente.
Por isso, a mensagem final soou mais como uma ordem velada: “Quem não entende o papel do humano no loop não tem futuro.” O problema do alinhamento ético cresce na mesma velocidade em que treinamos IAs cada vez mais independentes. Além disso, a supervisão humana se torna ainda mais relevante — não menos.