O uso de inteligência artificial na área da saúde cresce a passos largos. Um estudo realizado pela Associação Nacional de Hospitais Privados (Anahp) junto à Associação Brasileira de Startups de Saúde (ABSS) mostra que 62,5% das organizações já utilizam tecnologias baseadas em IA. Hoje, sistemas inteligentes são capazes de registrar consultas em tempo real, organizar informações clínicas automaticamente e até propor decisões médicas. Esses ganhos em eficiência e qualidade de atendimento, no entanto, trazem desafios delicados do ponto de vista legal e ético.
Um dos maiores pontos de alerta é a forma superficial com que muitas instituições vêm aplicando a Lei Geral de Proteção de Dados (LGPD). Em busca de maior produtividade, dados de saúde — como diagnósticos, resultados de exames e conversas entre médicos e pacientes — acabam sendo processados sem garantias mínimas de segurança e privacidade. O avanço tecnológico, nesse cenário, acaba ofuscando a obrigação de proteger informações extremamente sensíveis.
É preciso lembrar que dados médicos não se resumem a registros administrativos: eles revelam aspectos íntimos da condição física e emocional de cada paciente. Ao permitir que algoritmos coletem, analisem e guardem esses dados, surge uma série de questionamentos: onde estão armazenadas essas informações? Quem de fato tem acesso? Elas são usadas somente para o cuidado clínico ou também para treinar sistemas de IA, muitas vezes em servidores fora do Brasil?
Essas respostas passam necessariamente pela LGPD. A lei exige, no artigo 7º, consentimento específico para o uso de dados sensíveis, e proíbe, no artigo 33, o envio de informações pessoais para países que não possuam normas de proteção equivalentes, salvo em casos excepcionais. Assim, quando soluções em nuvem de grandes empresas globais são utilizadas, é fundamental haver contratos sólidos, aprovações da ANPD ou mecanismos formais de conformidade. Caso contrário, a instituição assume riscos jurídicos significativos.
Há, no entanto, alternativas mais alinhadas à legislação. Plataformas integradas diretamente ao prontuário eletrônico, com armazenamento em sistemas auditáveis, são uma opção mais segura. Além disso, provedores como Oracle e Google já oferecem infraestrutura em território nacional, o que ajuda a atender a exigência de armazenamento local. Mas atenção: nem tudo que se apresenta como “nacional” está em plena conformidade. Há casos em que empresas brasileiras utilizam, nos bastidores, serviços terceirizados hospedados fora do país, sem anonimização adequada e sem transparência contratual.
Casos de vazamento de dados de saúde não são raros. Em 2021, por exemplo, mais de 45,9 milhões de registros médicos foram expostos no Brasil, segundo o The HIPAA Journal. Vazamentos desse tipo podem incluir resultados de exames e diálogos confidenciais. A LGPD não só prevê medidas de segurança técnicas e administrativas, como também estabelece penalidades que podem ultrapassar R$ 50 milhões por infração.
Para além do aspecto legal, existe uma dimensão ética e clínica que não pode ser ignorada. A responsabilidade pela confidencialidade das informações permanece nas mãos do profissional de saúde, que precisa participar ativamente da escolha das soluções tecnológicas. Proteger dados faz parte do cuidado ao paciente. É recomendável, ainda, que as instituições designem um DPO (Data Protection Officer) com autonomia para garantir governança e monitoramento contínuos.
O momento exige que a união entre inteligência artificial e proteção de dados seja vista como oportunidade, não como obstáculo. A IA já é essencial para o futuro da medicina, mas deve caminhar lado a lado com práticas que assegurem o sigilo e o respeito ao paciente. Afinal, quando a tecnologia não preserva a privacidade, ela deixa de ser aliada para se tornar uma ameaça. O caminho certo é inovar com responsabilidade, para que o avanço tecnológico realmente contribua para a saúde — e não a coloque em risco.
Fonte: startupi.com.br
Por: Instituto Bertol