Tecnologia

Grandes empresas de tecnologia enfrentam dilemas sobre falhas da IA na saúde

Grandes empresas de tecnologia enfrentam dilemas sobre falhas da IA na saúde

Uma reportagem recente do New York Times revelou um movimento crescente: grandes empresas de tecnologia estão desenvolvendo ferramentas para analisar prontuários médicos, resultados de exames e dados coletados por dispositivos móveis. A promessa é de centralizar informações de saúde, facilitar o acesso do usuário e melhorar a tomada de decisões. No entanto, o cenário é mais arriscado do que parece.

Os dados de saúde são classificados como dados sensíveis, pois dizem respeito à intimidade do indivíduo. Sua centralização em plataformas digitais pode se tornar um ponto crítico de vulnerabilidade, atraindo ataques cibernéticos. Além disso, há registros de falhas de inteligência artificial na identificação de emergências clínicas, levantando a questão: quem responde quando a tecnologia erra?

Essa discussão, embora incipiente, é essencial. A responsabilidade tende a se diluir entre desenvolvedores, plataformas e prestadores de serviço. Para o usuário, o risco é concreto e imediato. Outro ponto crítico é o consentimento, que deve ser livre, informado e inequívoco. Na prática, muitos consumidores enfrentam termos de uso extensos e linguagem técnica, gerando uma assimetria informacional.

No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece um regime rigoroso para o tratamento de dados sensíveis, incluindo os de saúde. Contudo, a eficácia dessa proteção depende da aplicação concreta diante de tecnologias em rápida evolução. O Código de Defesa do Consumidor também estabelece responsabilidade objetiva e solidária dos fornecedores, mas a lógica pressupõe relações de consumo identificáveis.

O desafio da inteligência artificial é que decisões são tomadas por sistemas opacos e integrados a múltiplos agentes, dificultando a identificação de falhas. O debate não é sobre impedir a inovação, mas sobre definir claramente seus limites. A incorporação da IA à saúde é inevitável, mas o modelo de responsabilização e o grau de proteção ao consumidor ainda estão em aberto.

Opinião

A discussão sobre a responsabilidade em casos de falhas da IA na saúde é crucial para garantir a proteção do consumidor e a confiança nas novas tecnologias.