Tecnologia

Gigantes da tecnologia enfrentam 51 ações judiciais sobre uso de dados pessoais

Gigantes da tecnologia enfrentam 51 ações judiciais sobre uso de dados pessoais

O aumento da popularidade das inteligências artificiais (IAs), como ChatGPT e Gemini Google, levanta questões importantes sobre a segurança dos dados pessoais compartilhados pelos usuários. Um estudo do National Bureau of Economic Research (NBER) revela que mais de 70% das interações com o ChatGPT em 2025 não estavam relacionadas ao trabalho, mas sim à vida pessoal, levantando preocupações sobre o que acontece com essas informações.

O que as IAs aprendem com seus dados?

As interações dos usuários com as IAs servem como um tipo de “combustível” para o aprimoramento dos sistemas. As empresas de tecnologia utilizam dados, como textos e comandos, para treinar modelos de aprendizado de máquina. Isso pode levar ao compartilhamento involuntário de dados sensíveis, especialmente em contas gratuitas, conforme alerta Kenneth Corrêa, professor da Fundação Getulio Vargas (FGV).

Riscos no ambiente de trabalho

Além das interações pessoais, o estudo do NBER aponta que cerca de 80% das interações com IA no ambiente de trabalho estão voltadas à análise de dados. Isso pode resultar em um compartilhamento significativo de dados sensíveis de terceiros, como informações de clientes, o que pode violar a Lei Geral de Proteção de Dados (LGPD).

Ações judiciais contra Big Techs

As preocupações sobre o uso indevido de dados pessoais estão levando as gigantes da tecnologia a enfrentar 51 ações judiciais nos Estados Unidos até setembro de 2025. Empresas como Microsoft, Meta e Nvidia estão sendo processadas por treinar modelos de IA sem o consentimento explícito dos usuários, o que inclui casos de uso indevido de dados pessoais e violação de direitos autorais.

Como usar IA com segurança?

Para minimizar riscos, é essencial evitar o compartilhamento de dados sensíveis, como CPF e informações bancárias. O professor Corrêa recomenda que os usuários não exponham dados confidenciais de terceiros e, sempre que possível, anonimizar informações. Além disso, o uso de versões pagas das ferramentas pode oferecer um ambiente mais seguro, embora não elimine completamente os riscos.

Opinião

A crescente utilização de IAs no cotidiano exige uma reflexão crítica sobre a segurança dos dados pessoais e a responsabilidade das empresas em proteger essas informações.