Desde el 4/3/2024, empresas de más de 50 empleados deben implantar obligatoriamente el protocolo de acoso LGTBI

Inteligencia Artificial y privacidad: ¿Son compatibles?

En este artículo hablamos sobre:

Para funcionar de forma adecuada, la inteligencia artificial requiere, al menos en algunos modelos, del procesamiento de grandes cantidades de datos. Cuando la finalidad de esos modelos incluye el análisis de datos personales, el uso de la IA plantea cuestiones relativas a la privacidad. En este artículo, exploramos si inteligencia artificial y privacidad son compatibles y cómo podemos garantizar la privacidad de las personas afectadas por el uso de sistemas o herramientas de IA.

¿Cómo afecta la inteligencia artificial a la privacidad?

Los sistemas o modelos de inteligencia artificial dependen en gran medida del procesamiento de grandes cantidades de datos, tanto para su entrenamiento como para su funcionamiento. Cuando esos datos son datos personales, surge la preocupación por cómo afecta el uso de la IA a la privacidad de los datos y la seguridad de las personas.

La Ley de Inteligencia Artificial de la UE ha clasificado los sistemas de inteligencia artificial en función del riesgo para la privacidad y la seguridad de las personas en los siguientes niveles:

  1. Riesgo inaceptable: Son sistemas de IA cuyo uso está prohibido debido a que suponen un elevado riesgo para la privacidad y la seguridad de las personas. No solo hablamos de pérdida de privacidad, sino también de discriminación, control o manipulación (sistemas de clasificación social, sistemas que puedan manipular el comportamiento, etc.).
  2. Riesgo alto: Son sistemas de IA que dependen de una evaluación de conformidad realizada por un organismo independiente para poder ser usados. Requieren sistemas adecuados de evaluación de riesgos, registros de actividad, supervisión humana, medidas de gobernanza de datos, etc. (cirugía asistida por robot, educación, medios de transporte, etc.).
  3. Riesgo bajo o limitado: Son aquellos sistemas cuyo uso no entraña un riesgo significativo para la privacidad de las personas y cuya utilización sería libre, siempre y cuando cumplan con el principio de transparencia, es decir, informen de que se trata de IA o que se ha usado una herramienta de IA (chatbots, IA generativa, etc.).

Riesgos de la inteligencia artificial para la privacidad

Los riesgos de la inteligencia artificial para la privacidad van más allá de los riesgos para la privacidad digital o la privacidad en internet, aunque muchos de los datos que se recaban para entrenar los sistemas de IA provienen de la Red. En general, los riesgos de la IA para la privacidad no son muy diferentes de los riesgos de la inteligencia artificial y la protección de datos, incluyendo falta de transparencia, discriminación, violaciones de datos y problemas éticos relacionados con la monitorización y el control en tiempo real de las personas.

Falta de transparencia

La falta de transparencia en la inteligencia artificial se refiere a la falta de información clara y comprensible para los usuarios o interesados, es decir, para las personas cuyos datos son tratados por sistemas o modelos de IA. Esto incluye la falta de claridad sobre las categorías de datos procesadas, la finalidad de los procesamientos, el «razonamiento» del algoritmo y el uso posterior de esos datos.

Discriminación

Los modelos de IA se entrenan con datos, y cuanto más diversa sea la muestra, menos probabilidades de sesgo aparecerán en los resultados. Sin embargo, se ha comprobado que muchos sistemas de IA están sesgados porque los datos de entrenamiento no son suficientemente diversos, especialmente cuando se usan de forma universal. El sesgo algorítmico conduce a la discriminación de ciertos grupos étnicos, discriminaciones de género y otras discriminaciones de minorías.

Violaciones de datos

Los sistemas de IA son entrenados con volúmenes masivos de datos personales, incluyendo información financiera, de salud, ideológica, de localización, etc. Si se produce una violación de datos y estos no están debidamente protegidos, se genera un gran riesgo para la privacidad y la seguridad de las personas.

Monitorización y vigilancia

Tecnologías como el reconocimiento facial en tiempo real pueden usarse para la monitorización y vigilancia en espacios públicos, planteando dudas éticas y de invasión de la privacidad. La Ley de IA de la UE limita el uso de estos sistemas a las Fuerzas de Seguridad y solo en situaciones específicas de seguridad pública.

¿Son compatibles inteligencia artificial, privacidad y seguridad?

La inteligencia artificial, la privacidad y la seguridad pueden ser compatibles si se respetan las leyes existentes para regular la IA, como la Ley de Protección de Datos (RGPD y LOPDGDD). Aunque esta legislación no trate directamente el uso de la IA, sí se deben aplicar las medidas contempladas en ella y cumplir con las obligaciones relacionadas con el procesamiento de datos personales.

Para hablar de compatibilidad entre inteligencia artificial y privacidad, es necesario que los responsables del tratamiento (desarrolladores de sistemas y herramientas de IA, y las entidades que despliegan estos sistemas) cumplan con las leyes vigentes y apliquen un uso ético de la inteligencia artificial.

Además, es importante que el legislador no se quede atrás y que la regulación de estas tecnologías avance al mismo ritmo que ellas, para evitar lagunas legales que puedan ser explotadas por actores menos éticos.

¿Cómo usar inteligencia artificial y garantizar la privacidad?

Para usar inteligencia artificial y garantizar la privacidad, es necesario cumplir con los requisitos y obligaciones presentes en la Ley de Protección de Datos:

  • Privacidad desde el diseño y por defecto: Garantizar la confidencialidad, integridad y disponibilidad de los datos en todo el ciclo de vida de la IA.
  • Principio de minimización: Recabar solo los datos necesarios para el entrenamiento de modelos de IA.
  • Principio de exactitud: Evitar el sesgo algorítmico y garantizar la protección de los derechos fundamentales.
  • Licitud del tratamiento: Asegurar que los datos se usan con la finalidad pretendida y no para otros fines.
  • Principio de transparencia: Informar a los interesados sobre el uso de sus datos por sistemas de IA, la finalidad del tratamiento y los terceros a quienes pueden cederse los datos.
  • Análisis de riesgos y evaluaciones de impacto: Especialmente para sistemas clasificados como de riesgo alto.
  • Supervisión humana: De las decisiones automatizadas o la elaboración de perfiles.
  • Designación de un Delegado de Protección de Datos: Para garantizar el cumplimiento y la gestión del riesgo.
  • Medidas de seguridad de los datos: Para evitar vulneraciones y minimizar su impacto.
  • Plazos de conservación: Establecer y cumplir con plazos de conservación de los datos.
  • Auditorías de control: Someter los sistemas a auditorías de protección de datos.

En definitiva, para garantizar la privacidad al usar inteligencia artificial, es necesario cumplir con la legislación vigente en materia de protección de datos y la legislación específica de IA. Como usuarios, debemos informarnos sobre cómo y para qué se usan nuestros datos personales al interactuar con sistemas basados en IA.

Más artículos sobre cumplimiento normativo

Más de 20 años cumpliendo contigo

¿Necesitas ayuda?

Te asignaremos un consultor experto para buscar una solución a tu problema en menos de 24h. ¡Escríbenos!

¡Será un placer ayudarte!

¿Necesitas asesoramiento personalizado?
¿Necesitas un presupuesto a medida?

Te ayudamos

Coméntanos tu problema para asignarte un consultor especializado y darte una solución jurídica en menos de 24hs.