Por Felipe Nascimento, gerente de projetos e especialista em processos e governança de dados da NAVA Technology for Business.
Quando o assunto é inteligência artificial (IA), o debate frequentemente gira em torno dos limites éticos e de segurança desse avanço tecnológico. De um lado, há quem defenda uma evolução rápida e sem restrições, argumentando que o compliance rigoroso pode resultar em sérias consequências. De outro, há a visão de que o uso responsável dessa tecnologia é fundamental para assegurar o respeito aos direitos humanos, a transparência nos negócios, a conformidade com as leis vigentes, a sustentabilidade e o sucesso a longo prazo.
No início deste ano, a Europa se destacou como pioneira na regulamentação da IA ao implementar uma legislação abrangente conhecida como AI Act. Assim como ocorreu com a Lei Geral de Proteção de Dados (LGPD), é provável que essa iniciativa inspire o Brasil a criar um marco regulatório similar. A expectativa é de que o Projeto de Lei 21/20, que já está em discussão, contemple a proteção dos direitos dos cidadãos, com ênfase na privacidade e inclusão, além de abordar temas como fiscalização, monitoramento, classificação de risco, verificação de violações e fomento à inovação e competitividade. O objetivo é equilibrar a defesa desses princípios com a promoção de novas possibilidades de pesquisa e aplicações, evitando a estagnação do desenvolvimento tecnológico.
Além dos benefícios sociais, um processo eficiente de governança da IA pode trazer vantagens comerciais. Segundo um relatório da Twilio, 89% dos entrevistados acreditam que o uso ético da IA pode ser uma vantagem competitiva. Nesse cenário de mudanças dinâmicas, é essencial que as organizações estejam em conformidade com as questões fundamentais relacionadas ao uso da IA.
Aspectos como segurança de dados, transparência e conformidade com as legislações existentes são importantes, mas não tão desafiadores quanto questões menos discutidas, como a auditoria regular de vieses, que deve ser aplicada de maneira justa e equitativa. Além disso, é crucial utilizar conjuntos de dados diversos e representativos no treinamento dos modelos de IA, o que ajuda a reduzir vieses e a melhorar a equidade nos resultados.
À medida que essas práticas são adotadas, as empresas podem ir além do seu escopo individual e contribuir com a sociedade por meio da colaboração com governos, ONGs, acadêmicos e outras partes interessadas. Essa cooperação é fundamental para o desenvolvimento e a adoção de melhores práticas e padrões éticos. Para garantir a conformidade com essas práticas e otimizar o uso da IA, é essencial investir na educação e capacitação dos funcionários e do público sobre o uso responsável da tecnologia. Isso promove a evolução da IA de forma ética e eficaz.
Para uma implementação mais eficaz dessa abordagem, os gestores podem adotar frameworks que sirvam como guias para o uso responsável da IA. Isso inclui a criação de códigos de conduta para o desenvolvimento de novas soluções, a formação de comitês de ética, o estabelecimento de políticas de privacidade robustas e a manutenção de documentação detalhada.
Em suma, é fundamental que as organizações compreendam que o uso responsável e ético da IA não é um obstáculo às suas estratégias de inovação. Pelo contrário, práticas éticas e transparentes no desenvolvimento e implementação de IA podem impulsionar áreas como a tomada de decisões mais assertivas e a melhoria da experiência do cliente. Além disso, essa abordagem prepara as empresas para estarem em conformidade com futuras regulamentações, garantindo a segurança, a privacidade e a equidade no uso da tecnologia.