Este último año ha estado fuertemente marcado por la introducción de la Inteligencia Artificial (IA) entre las tecnologías aplicadas al sector de la salud. Sin embargo, Europa y la nueva Ley de IA catalogan la Inteligencia Artificial en los hospitales como “sistemas de alto riesgo”, exponiendo una lista de supuestos que pueden afectar negativamente a determinados derechos fundamentales que se encuentran consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (CDFUE).
Como explica Nuria Rodríguez, abogada y profesora de Derecho Administrativo en la Universidad Europea, la denominación de los sistemas de IA en hospitales como de “alto riesgo” obliga a incorporar medidas que minimicen el riesgo de vulneración de alguno de los derechos especialmente protegidos en la CDFUE, como la dignidad humana, el respeto de la vida privada y familiar y la protección de datos de carácter personal, la no discriminación y la igualdad entre hombres y mujeres.
En este sentido y para que los sistemas de IA en espacios sanitarios tengan el visto bueno de Europa, se tienen que tener en cuenta diferentes factores. Se destaca “el establecimiento de los requisitos legales que deben cumplir los sistemas de IA de alto riesgo en lo que respecta, por ejemplo, a los datos, la documentación y el registro, la transparencia, la comunicación de información a los usuarios, la vigilancia humana, la precisión y la seguridad con la implementación de un sistema de gestión de riesgos asociado a los sistemas de IA de alto riesgo”, señala Nuria Rodríguez.
Además, añade la especialista, se busca reducir al mínimo la carga que deben soportar los operadores económicos pretendiendo aumentar su capacidad de manera progresiva. “En el caso de los productos sanitarios, donde los sistemas de IA van a ser utilizados como componentes de seguridad de productos regulados por la legislación del nuevo marco legislativo, deberán cumplir los mismos requisitos de cumplimiento y aplicación que los productos de los que forman parte”.
No obstante, la propia Propuesta de Reglamento reconoce que, para evaluar los sistemas de IA de alto riesgo “independientes”, se debería realizar una evaluación integral de la forma debida, puesto que se trata de un sector innovador.
Fortalezas y amenazas que puede suponer la IA en los hospitales
Si nos fijamos en la Exposición de motivos de la Propuesta de Reglamento, en ella se destacan la mejora de aspectos como la predicción, la optimización de las operaciones y la asignación de recursos, así como la personalización de la prestación de servicios gracias a la introducción de sistemas de IA.
En palabras de Rodríguez, “la IA se establece como un mecanismo de ayuda para la consecución de resultados positivos desde el punto de vista social y medioambiental, así como una vía para generar ventajas competitivas a las empresas y la economía europea”.
Sin embargo, todos los elementos y técnicas que resultan beneficiosos, pueden dan lugar a nuevos riesgos o consecuencias negativas. En esta línea, hay que tener bajo control y revisar todos los aspectos relacionados con los Derechos Humanos, la democracia y el Estado de Derecho, para que los sistemas estén en consonancia con estos.
Nuevas profesiones ligadas a la IA en hospitales
La aplicación de la IA supondrá una revolución en todos los sectores productivos. Es muy probable que ningún sector quede fuera de dicha aplicación, afirma Nuria Rodríguez.
El choque de necesidad de innovación y desarrollo con los Derechos Fundamentales en sectores como los servicios sanitarios harán necesarios especialistas formados en el desarrollo de sistemas de IA desde el diseño que garanticen la no vulneración de los mismos. Así, explica Rodríguez, “se espera que la integración de la IA en hospitales y entornos médicos genere una serie de nuevas profesiones esenciales para el funcionamiento eficiente y ético de estos servicios como, por ejemplo, juristas especializados en nuevas tecnologías y desarrollo de sistemas de IA, especialistas en Compliance o ingenieros biomédicos”.
En cuanto al personal sanitario en activo, la experta asegura que “la formación en nuevas tecnologías ya es imperativa. No obstante, la incorporación de normas éticas y deontológicas se vuelve esencial para evitar responsabilidades legales. Esto incluye una formación rigurosa en protección de datos y Derecho Sanitario, así como en el ámbito de los derechos y deberes con respecto a menores, etc”.
Seguiremos informando…