Por Thomas Law, fundador do Ibrawork.
A inteligência artificial já participa de decisões estratégicas em empresas, governos e instituições. Ela analisa dados, projeta cenários, identifica padrões e sugere caminhos.
Segundo o AI Index Report 2024, da Universidade de Stanford, a adoção corporativa de inteligência artificial mais que dobrou nos últimos dois anos no mundo.
Diante dessa transformação, a pergunta central deixa de ser tecnológica e passa a ser humana. Estamos preparados para identificar e formar líderes capazes de integrar essa nova realidade com responsabilidade e visão estratégica?
Um episódio recente ajuda a ilustrar até onde essa transformação pode chegar e como a inteligência artificial já começa a impactar diferentes dimensões da sociedade.
Na Colômbia, a Justiça Eleitoral autorizou que uma candidatura representada por inteligência artificial participe das eleições legislativas. A iniciativa funciona como uma plataforma digital capaz de reunir propostas, opiniões e demandas da população, que passam a orientar as decisões políticas de representantes humanos associados ao projeto.
O caso evidencia que a IA já não está restrita a laboratórios ou empresas de tecnologia: ela começa a influenciar também o debate sobre representação política, tomada de decisão e os próprios modelos de liderança na esfera pública.
Os critérios tradicionais de liderança, como experiência acumulada, carisma e resultados passados, continuam relevantes, mas tornaram-se insuficientes.
O ambiente atual é digital, orientado por dados, volátil e interdisciplinar. Identificar novos líderes exige observar quem aprende continuamente, quem formula perguntas melhores e quem sabe utilizar tecnologia como instrumento de ampliação, e não como substituição do pensamento crítico.
Nesse contexto surge o conceito de líder ampliado. Não se trata de um profissional substituído pela inteligência artificial, mas de alguém potencializado por ela. A IA amplia a capacidade de análise, acelera simulações estratégicas e antecipa riscos.
O líder, por sua vez, mantém aquilo que a tecnologia não substitui: julgamento moral, empatia, responsabilidade e propósito. A inteligência artificial expande a cognição. A liderança define direção e limites.
Formar esse novo perfil de liderança é um dos grandes desafios contemporâneos. Programas tradicionais de desenvolvimento executivo, focados apenas em comunicação, negociação e gestão de conflitos, já não são suficientes.
Uma pesquisa global da McKinsey indica que mais de 70% das empresas já utilizam IA em ao menos uma função estratégica, mas apenas uma parcela minoritária afirma ter lideranças plenamente preparadas para governar seu uso.
É necessário incorporar alfabetização digital estratégica, compreensão de vieses algorítmicos e noções de governança de dados. Liderar na era da IA implica saber quando confiar na tecnologia, quando questioná-la e como supervisioná-la.
O recrutamento também passa por transformação estrutural. Sistemas automatizados realizam triagem de currículos, análises comportamentais e avaliações preditivas. Surge um paradoxo. Algoritmos começam a selecionar profissionais que precisam liderar algoritmos.
Organizações que não revisarem seus critérios de seleção podem reforçar vieses invisíveis ou negligenciar competências humanas essenciais, como pensamento sistêmico e inteligência emocional.
Ao mesmo tempo, a expansão da inteligência artificial impõe novos limites regulatórios e éticos.
No Brasil, a Lei Geral de Proteção de Dados assegura a revisão humana de decisões automatizadas, enquanto o Projeto de Lei 2338 de 2023 propõe um marco específico para inteligência artificial, com diretrizes de classificação de riscos e responsabilidade.
No plano internacional, a União Europeia aprovou o AI Act, o primeiro marco regulatório abrangente sobre inteligência artificial no mundo. A norma adota um modelo baseado em níveis de risco, estabelece obrigações de transparência, supervisão humana obrigatória em sistemas classificados como de alto risco e mecanismos institucionais de fiscalização.
O alcance extraterritorial do regulamento sinaliza que a governança de IA não é apenas debate acadêmico, mas requisito estratégico para empresas e instituições que operam globalmente.
A governança de IA deixa de ser apenas boa prática e passa a integrar o campo da segurança jurídica e institucional.
O desafio contemporâneo é equilibrar inovação e responsabilidade. A dependência excessiva da automação pode gerar erros sistêmicos. A ausência de formação adequada pode aprofundar desigualdades internas entre profissionais que dominam tecnologia e aqueles que ficam à margem. A liderança ampliada não compete com a máquina, mas também não delega a ela a decisão final sem supervisão.
A pergunta que define esta era não é se a inteligência artificial substituirá líderes. É se estamos preparados para formar líderes capazes de utilizá-la com consciência estratégica, limites claros e compromisso com a boa governança.
A inteligência artificial amplia a capacidade de decisão. A responsabilidade, contudo, permanece humana.