Por Alon Lubieniecki, CEO da Luby.
Vulnerabilidade. Essa é uma das palavras que mais têm circulado dentro dos escritórios e empresas, de todos os portes e segmentos. E essa vulnerabilidade advém, justamente, do tratamento de dados sensíveis gerados pelas ferramentas de Inteligência Artificial.
Vivemos tempos onde somos, a todo instante, monitorados por algoritmos generativos, personalização em larga escala e automação de decisões. Com isso, já existem plataformas que identificam, expõem ou colocam pessoas em risco de discriminação ou violação de direitos precisam de um cuidado redobrado, especialmente quando alimentam novos sistemas de IA e Visão Computacional.
Dados referentes à saúde, orientação sexual, convicções religiosas, informações biométricos e financeiras, são apenas valiosos e, por isso, têm demandando cada vez mais atenção e regulamentações. A Lei Geral de Proteção de Dados (LGPD), que entrou em vigor em 2020 no Brasil, já impõe requisitos rigorosos para seu tratamento, exigindo base legal específica, consentimento claro e medidas de segurança proporcionais.
Um dos principais pontos de atenção de líderes que não querem ter problemas com tratamento de dados, é que alguns modelos de IA muitas vezes coletam, inferem e cruzam esses dados sem que os usuários sequer percebam. Além disso, há um novo contexto chamado de “inferência invisível”, ou seja, a capacidade da IA inferir dados sensíveis a partir de dados não sensíveis. Por exemplo, mesmo que uma empresa não colete diretamente informações de saúde, um agente de IA pode aprender a identificá-las com base em comportamento ou hábitos de consumo.
Por fim, para evitar cair em armadilhas sobre o tratamento de dados por meio das IAs, podemos apostar em boas práticas, como classificar e catalogar os dados corretamente; implementar anonimização e minimização de dados; e auditar e explicar os modelos que estão sendo aplicados dentro da companhia, criando uma cultura de inovação aliada à segurança.
Somente por meio de olhares atentos, baseados em transparência e ética, estaremos realmente preparados para proteger os dados em um cenário cada vez mais automatizado.