La integración de Sermas GPT, una herramienta de inteligencia artificial generativa, en el sistema de salud de la Comunidad de Madrid (CAM) ha generado preocupaciones significativas sobre la seguridad y privacidad de los datos. Esta tecnología, desarrollada en colaboración con Microsoft y una fundación privada, está diseñada para ayudar a los médicos a detectar enfermedades raras, pero ha planteado interrogantes sobre cómo se manejan los datos de los pacientes.
Integración y Validación de Sermas GPT
A pesar de que los responsables de Sermas GPT aseguran que no es necesaria la validación ética por su carácter experimental, el sistema ha sido enviado para su validación por el Comité de Ética Asistencial de la comunidad. Sin embargo, no hay claridad sobre los cambios realizados en el sistema informático de salud ni sobre quién tiene acceso a los datos de las historias clínicas, lo que aumenta la preocupación sobre la protección de datos personales y confidenciales.
Funcionamiento y Seguridad de Datos
Según Nuria Ruiz, directora de Salud Digital, Sermas GPT es una herramienta experimental que no utiliza datos personales ni información confidencial, sino solo datos genéricos y anónimos. Sin embargo, expertos en privacidad como Sergio Carrasco sugieren que cualquier tratamiento de datos, incluso en un marco experimental, está sujeto al Reglamento General de Protección de Datos (RGPD), que exige cumplir con principios de información y minimización de datos.
Desafíos en la Implementación
La falta de documentación clara sobre las tareas realizadas y los ajustes de seguridad específicos es un problema importante. Además, aunque se menciona que Microsoft puede evaluar los casos de uso según su programa de uso responsable de la IA, no hay referencia a una evaluación propia de la administración pública sobre el tratamiento de datos tan sensibles como los de salud.
Accesibilidad y Privacidad de Datos
Aunque se afirma que Sermas GPT no está integrada en la historia clínica y se accede desde fuera sin acceso a datos del paciente, hay evidencias de que la herramienta ha sido integrada dentro del entorno del sistema de información médica de la CAM, adaptando su interfaz para ser accesible desde dentro del programa utilizado por los médicos.
Riesgos y Consideraciones Éticas
El debate sobre la seguridad y privacidad de los datos se intensifica con la preocupación de que Sermas GPT, al estar basada en tecnologías como GPT-4, pueda inherente a sesgos y vulnerabilidades en seguridad. Estas tecnologías pueden ser propensas a ataques que comprometan la privacidad y la seguridad de los datos, especialmente cuando se trata de información tan delicada como la médica.
Necesidad de una Base Jurídica Sólida
Expertos en derecho administrativo destacan la necesidad de una base jurídica clara para proyectos como Sermas GPT, especialmente cuando hay colaboración con entidades privadas como Microsoft. Esto es crucial para asegurar que cualquier herramienta implementada en el sector público tenga el soporte jurídico adecuado y esté libre de conflictos de interés potenciales.
Un Caso Complejo Entre Innovación y Protección de Datos
La integración de Sermas GPT en el sistema de salud madrileño presenta un caso complejo de balance entre innovación en salud y protección de datos personales. Es esencial que todas las partes involucradas, desde desarrolladores hasta autoridades sanitarias, se comprometan a garantizar la transparencia, la seguridad de los datos y el respeto a las normativas de protección de datos para proteger la integridad y la confianza del público en los servicios de salud pública.