La Inteligencia Artificial (IA) se encuentra cada día más presente en la vida diaria como una herramienta para agilizar procesos; en los seguros médicos se está utilizando para revisar los casos denegados a través de algoritmos, sin embargo, estos no toman en cuenta las circunstancias especiales de cada caso, lo que genera discriminación y desigualdad.
Especialistas señalaron durante una sesión informativa realizada por Ethnic Media Services, que la IA sanitaria suele estar basada de prejuicios raciales y económicos que determinan, cada vez, más quién recibe tratamiento y quién no.
Así, la Inteligencia artificial es utilizada para denegar solicitudes de seguro médico, lo que representa un riesgo para la salud en aquellos casos que requieren evaluación médica personalizada. Una investigación realizada por ProPublica este año, reveló que las aseguradoras deniegan ahora de forma rutinaria millones de reclamaciones mediante el uso de IA.
La doctora Katherine Hempstead, responsable de políticas de la Fundación Robert Wood Johnson, explicó que es imposible determinar temas en las pólizas de seguro médico a través de la IA, ya que existe una gran variedad de posibilidades en cada caso.
“Existen muchos contextos distintos y las reglas no son las mismas en cada seguro y esto genera un sentimiento de desconfianza”, agregó Hempstead.
Asimismo, asegura que existe más gente afiliada a Medical, el problema es que no todos tienen el mismo acceso a medicamentos o servicios, pues cada caso es diferente y muchas veces se genera un sentimiento de desigualdad entre los afiliados.
Aunado a ello mencionó que las pólizas de seguros, cada vez, son más corporativas y no son tan humanas, lo que afecta la percepción de los pacientes que pierden la confianza en el sistema, puesto que niegan las solicitudes y algunos servicios a través del sistema automatizado generado por la IA.
La doctora Miranda Yaver, profesora adjunta de política y gestión sanitarias de la Universidad de Pittsburgh realizó un estudio para su libro “Coverage Denied: How Health Insurers Drive Inequality in the United States” que se publicará en la primavera de 2026, donde explica esas desigualdades en los seguros médicos.
A Yaver le preocupa que la Inteligencia Artificial tome terreno en el ámbito de la salud, pues podría generarse un error y en el caso medico representaria el riesgo de una vida y en los casos negados, algunos apelan y resultan a su favor, pero no siempre, son los que más lo necesitan, entonces la equidad y las oportunidades se reducen.
“La IA tiene sus ventajas, pero también es importante pensar cuales con las implicaciones de estas herramientas, que por una parte, si funcionan bien pueden ayudarnos a agilizar los procesos para tener los cuidados que se necesitan, pero por otra parte pueden desestabilizar, especialmente a los grupos marginados, esencialmente a los grupos más vulnerables”, expresó Yaver.
Josh Becker, senador por el estado de California y autor de la ley SB 1120, Physicians Make Decisions Act, explicó la importancia de esta ley, que limita el alcance de la IA al exigir a los médicos que tomen las decisiones finales.
El proyecto de ley se llama “Los doctores toman decisiones” , este proyecto de ley responde a las preocupaciones de la toma de decisiones en el ámbito médico que pone como prioridad el bienestar del paciente, en vez de dejar que los sistemas automatizados tomen esas decisiones que requieren que un doctor preparado, de este modos se pretende abordar brechas críticas en el sistema médico.
“El algoritmo no tiene la capacidad de poder tomar decisiones personas e individuales, que solo médicos pueden llevar a cabo”, expresó.
Comentó qué, el uso de la inteligencia Artificial en cuanto al área médica y los seguros médicos, en un futuro, podría ayudar a evaluar un estudio algo así, pero en este momento se habla de la IA como una herramienta para aumentar la eficiencia y cortar los costos, lo que crea muchas amenazas en la salud.
Becker, compartió el caso de un médico que negó 60 mil casos en un solo mes, lo que demuestra un preocupante sistema que niega los pacientes, pues muchas veces ni siquiera le dan la oportunidad para obtener el tratamiento que necesitan.
Te puede interesar: San José apuesta por el uso responsable de la Inteligencia Artificial