Por Cássio Pantaleoni, head de soluções em inteligência artificial e estratégia da Quality Digital.
O ano de 2023, de certo modo, foi o ano regulatório da Inteligência Artificial (IA). Ainda em maio, o G7 Summit destacou a importância de promover guardrails para os sistemas avançado de IA em bases globais.
Em agosto, foi a vez da China promulgar uma lei especificamente associada à IA Generativa, com o intuito de mitigar prejuízos essenciais aos indivíduos, manter a estabilidade social e assegurar sua liderança regulatória internacional a longo prazo.
Na esteira deste processo, coube aos EUA, na figura de seu então presidente Biden, emitir uma ordem executiva que dava conta de nortear a aplicação da IA para o campo da confiabilidade, segurança e da proteção dos elementos fundamentais da soberania americana.
Contudo, a cereja do bolo foi, em larga medida, o Ato da IA da União Europeia, pré-aprovado em dezembro de 2023 e sancionado no início de 2024. Profundamente debatido e bastante abrangente, o Ato alcança o estatuto de uma regulamentação com vocação internacional concebida como framework legal para o desenvolvimento e aplicação de sistemas de IA para os países membros do bloco.
No Brasil, a lei 2.338 da Inteligência Artificial, marca uma inflexão na regulamentação das tecnologias emergentes no país. Em larga escala, a lei possui aspectos positivos, mas também denota certa fragilidade em áreas estratégicas para o desenvolvimento de nossa liderança no campo da IA.
No centro da regulamentação brasileira encontra-se disposições da Lei Geral de Proteção de Dados (LGPD), enfatizando a proteção de dados pessoais com ênfase na privacidade. A lei pretende, deste modo, garantir que a IA não comprometa os direitos individuais. A LGPD também quer incentivar a inovação, oferecendo alguns incentivos fiscais e subsídios para empresas que investem em pesquisa e desenvolvimento de IA. Este aspecto visa posicionar o Brasil como um hub de inovação tecnológica, estimulando a competitividade e a criação de startups no setor de IA.
No que tange aos impactos sociais, a inclusão digital e o uso ético da IA para reduzir desigualdades estão contemplados por meio da promoção de programas educacionais e de capacitação para populações vulneráveis, preparando a força de trabalho para a era da inteligência artificial. A ideia é mitigar os impactos sociais negativos da automação, promovendo uma transição mais equitativa.
No entanto, há pontos negativos a destacar. O primeiro deles gravita em torno de uma excessiva burocracia, como a exigência de múltiplas avaliações e certificações que poderão sobrecarregar as empresas, especialmente startups e pequenas empresas, com custos adicionais e processos demorados.
Este aspecto burocrático pode desencorajar a inovação e a adoção de novas tecnologias. Embora a lei tenha intenções interessantes, alguns críticos citam ambiguidade em certas disposições, possibilitando interpretações conflitantes e insegurança jurídica. Há falta de clareza em relação a responsabilidades e penalidades específicas que dificultarão sua aplicação prática. Há ainda preocupações sobre o potencial uso da regulamentação de IA para fins de controle estatal. Este aspecto levanta questões sobre a proteção das liberdades civis e os limites da intervenção do Estado.
Estamos, em todo o caso, diante de um marco importante na regulamentação da IA. Tal componente regulatório é necessário para trazer equilíbrio entre proteção de direitos, incentivo à inovação e promoção da inclusão social.
No entanto, a eficácia da lei dependerá de sua implementação prática e da capacidade de mitigar os riscos associados. A transparência, a clareza regulamentar e a vigilância constante da sociedade civil serão essenciais para garantir que os benefícios superem os desafios.