Los demandantes alegan que el algoritmo de IA habría provocado denegaciones automáticas que no fueron revisadas por humanos. En paralelo, un informe del Senado de EE. UU. concluyó que la demandada, junto a otras aseguradoras, empleó tecnología predictiva para incrementar los rechazos a las solicitudes. La demanda sostiene que estas decisiones se adoptaron mediante criterios rígidos que no abordaron las circunstancias específicas de cada paciente.
El Tribunal de Distrito de Estados Unidos para el Distrito Oeste de Kentucky resolvió la prosecución de una demanda colectiva interpuesta contra una aseguradora. La acción se centra en la utilización del modelo de inteligencia artificial (IA) denominado nH Predict, implementado por la firma NaviHealth, para evaluar y decidir sobre solicitudes de cobertura en servicios de salud.
De acuerdo con los antecedentes expuestos en la causa, los actores alegan que el sistema de salud habría emitido recomendaciones uniformes basadas en registros médicos parciales o insuficientes, sin atender a las circunstancias específicas de los pacientes. El tribunal, en su resolución, estimó dicha alegación y consignó que, conforme a lo planteado por los demandantes, la IA habría sido aplicada como mecanismo determinante en las decisiones de cobertura, desplazando criterios clínicos personalizados.
El litigio se vincula además con un informe emitido en 2024 por el Subcomité Permanente de Investigaciones del Senado de Estados Unidos, el cual concluyó que la aseguradora permitió la participación de revisores externos que utilizaron inteligencia artificial en procesos de autorización previa. El comité constató que ello derivaba en decisiones en las que se excluía la intervención humana.
En virtud de los antecedentes analizados se incorporó la política interna de la compañía titulada “Uso Ético de la Inteligencia Aumentada”, en la cual se reconoce que terceros podrían aplicar sistemas de inteligencia artificial como apoyo a servicios prestados a la aseguradora, estando comprendidos bajo dichas directrices. Asimismo, se expuso que, desde 2017, el contrato con NaviHealth autorizaba la utilización de información sanitaria protegida en conexión con la herramienta LiveSafe (posteriormente denominada nH Predict).
En el proceso judicial también se constatan casos concretos, entre ellos el de una paciente de 86 años cuya cobertura en un centro de cuidados post-agudos habría sido finalizada a las dos semanas de tratamiento, con base en la IA. Estos antecedentes fueron complementados por una investigación publicada en 2023 por el medio STAT, que indicó que el modelo fue diseñado para optimizar costos en atención post-aguda y recogió testimonios de profesionales de la salud sobre la rigidez de los criterios empleados.
El Subcomité del Senado observó además que la aseguradora mantenía conocimiento del posible impacto de estas prácticas en sus calificaciones de calidad. Documentación interna de la compañía mencionaba la incidencia que tenían las revocaciones de denegaciones por parte de Maximus, entidad independiente encargada de revisiones. Según los registros, aunque únicamente un 12% de las denegaciones eran apeladas, más del 80% resultaba revertido dentro de la propia aseguradora antes de llegar a la etapa de revisión externa.
El tribunal, en su resolución, no se pronunció sobre el fondo del asunto, pero dejó establecido que los demandantes plantearon una controversia jurídicamente admisible en relación con el uso del modelo nH Predict. En consecuencia, resolvió permitir el avance de la causa para continuar el la próxima etapa procesal.
(Fuente: Diario Constitucional Chile)