Pesquisar

A próxima revolução da IA não será técnica, mas ética

Foto: divulgação.
Foto: divulgação.

Por Adilson Batista, especialista em IA generativa e CIO da Cadastra.

Quando afirmo que a próxima revolução da inteligência artificial (IA) será ética, refiro-me a uma mudança fundamental de perspectiva: sair da discussão sobre o que é possível fazer e entrar na esfera de o que é aceitável fazer, e, sobretudo, como demonstrar isso com governança, métricas e prestação de contas.

Nos últimos anos, a capacidade técnica da IA evoluiu em ritmo vertiginoso, mas o que falta é licença social para operar, clareza regulatória e processos corporativos que tratem impacto em pessoas e direitos como requisito central de projeto, e não como nota de rodapé.

Os sinais dessa virada já estão claros. A União Europeia colocou em vigor, em 1º de agosto de 2024, o AI Act, primeira lei abrangente de IA com cronograma escalonado: proibições e letramento obrigatório em IA valendo desde 2 de fevereiro de 2025; as obrigações para modelos de propósito geral (GPAI) e as regras de governança vigorando em 2 de agosto de 2025; sendo que a plena aplicação ocorrerá até 2 de agosto de 2026, com prazos estendidos para sistemas de “alto risco” (European Commission, Digital Strategy).

Essa legislação muda o jogo, pois estabelece deveres concretos de análise de risco, transparência e supervisão humana para quem fornece e para quem utiliza IA.

O movimento não se restringe à Europa. O National Institute of Standards and Technology (NIST), localizado nos Estados Unidos, publicou um AI Risk Management Framework com quatro funções: Govern, Map, Measure e Manage.

Já a ISO lançou a ISO/IEC 42001 (sistema de gestão de IA) e a ISO/IEC 23894 (gestão de riscos em IA), tornando a ética um componente estruturante, com políticas, controles, auditorias e melhoria contínua, assim como já fazemos com qualidade ou segurança da informação (NIST, NIST Publications, ISO).

No Brasil, o PL 2338/2023, que estabelece o marco legal da IA, foi aprovado no Senado em dezembro de 2024 e hoje tramita na Câmara, prevendo diretrizes de risco, avaliação de impacto algorítmico para casos de alto risco e competência regulatória residual da Autoridade Nacional de Proteção de Dados (ANPD) (Senado Federal, Portal da Câmara dos Deputados).

Mas a regulação é apenas um dos pilares dessa revolução ética. Empresas e lideranças não podem terceirizar a responsabilidade pelo impacto de seus algoritmos. Adotar IA implica assumir responsabilidade técnica e ética, a lógica do accountability by design.

Isso envolve três níveis: o conselho e a diretoria precisam exercer supervisão ativa, alinhando governança de IA a indicadores de risco (World Economic Forum); a gestão executiva deve estruturar sistemas de gestão com políticas, papéis definidos e trilhas de auditoria, como previsto na ISO/IEC 42001 (ISO); e mesmo em contextos de instabilidade regulatória, como nos EUA, com reviravoltas no arcabouço de ordens executivas de IA em 2025, órgãos como o NIST e a OMB já exigem governança robusta em agências públicas (The White House, NIST).

Os riscos de negligenciar o tema são claros e urgentes. Deepfakes de voz já interferiram em processos eleitorais nos EUA, levando a FCC a declarar que vozes geradas por IA em robocalls são ilegais sob a TCPA (AP News).

A Rite Aid foi banida pela Federal Trade Commission (FTC) de usar reconhecimento facial por cinco anos após falhas graves em controle de vieses A Microsoft precisou rever seu recurso Recall, que fotografava a tela periodicamente, após críticas sobre privacidade (Ars Technica, WIRED).

O Google, por sua vez, viu sua funcionalidade AI Overviews recomendar “comer pedras” e “passar cola na pizza”, gerando repercussão global (The Guardian, Forbes). E empresas que exageram promessas de “IA proprietária” já enfrentam ações e multas da SEC por AI washing (SEC).

No pano de fundo, a AI Act europeia já proíbe práticas como “social scoring” e manipulação nociva, impondo obrigações para sistemas de alto risco e GPAI, inclusive quanto a direitos autorais e sumários de dados de treino (European Parliament, Digital Strategy).

Para que a ética saia do rodapé e passe a integrar a essência dos projetos de IA, as organizações precisam de quatro mudanças estruturais.

Primeiro, governança clara, com patrocinadores executivos, donos técnicos e indicadores de confiança revisados periodicamente.

Segundo, processos de produto com gates éticos, incluindo avaliações de impacto algorítmico quando aplicável, algo que o Canadá já tornou obrigatório no setor público e que o PL 2338/2023 prevê para casos de alto risco no Brasil. A terceira mudança implica transparência operacional, com Datasheets, Model Cards e documentação técnica robusta, como exige a AI Act.

E, por fim, cultura e letramento: a legislação europeia já trata a capacitação em IA como obrigação, mas as empresas precisam ir além e incluir metas de ética e impacto nos objetivos de inovação, treinando equipes para reconhecer inclusive quando não usar IA.

A revolução técnica já aconteceu. A próxima será ética e ela não será opcional.

Compartilhe

Leia também