Desde el 4/3/2024, empresas de más de 50 empleados deben implantar obligatoriamente el protocolo de acoso LGTBI

Relación entre el reconocimiento de emociones y la protección de datos

En este artículo hablamos sobre:

El reconocimiento de emociones es algo que, hasta hace no mucho, nos sonaba a ciencia ficción. Sin embargo, con el desarrollo de la inteligencia artificial, en especial del machine learning, el reconocimiento de emociones empieza a ser una realidad cuya aplicación no solo se limita al marketing, sino también a otros ámbitos como el trabajo. Pero, ¿existe alguna relación entre el reconocimiento de emociones y la protección de datos?

La naturaleza de los datos emocionales y su relación con el RGPD

Aunque los sentimientos o emociones no están contemplados explícitamente en el Reglamento General de Protección de Datos (RGPD), sí lo están otros tipos de tratamientos de datos personales que son necesarios para poder llevar a cabo el reconocimiento de emociones. Del reconocimiento de emociones se puede inferir información considerada de carácter personal, como el estado de salud o la ideología política, que son datos especialmente protegidos.

¿Cómo funciona el reconocimiento de emociones?

El reconocimiento de emociones funciona haciendo un análisis de las expresiones corporales de una persona. A través del uso de sistemas de inteligencia artificial desarrollados para analizar e interpretar gestos faciales, tonos de voz, movimientos corporales o la ausencia de estas reacciones, se determina si los sujetos están felices, tristes, enfadados, etc. Incluso hay sistemas que pueden determinar emociones compuestas, como tristemente enojado o alegremente sorprendido.

La IA se encarga de identificar los gestos corporales y relacionarlos con sus correspondientes emociones. Para ello, se emplean diferentes herramientas, desde aquellas que analizan las expresiones faciales o corporales o el tono de voz, hasta las que son capaces de analizar e interpretar el lenguaje humano. A través del entrenamiento y de diferentes iteraciones, los sistemas de IA acaban «aprendiendo» a identificar las emociones de las personas en determinadas circunstancias.

Aplicaciones del reconocimiento de emociones

Aunque el reconocimiento de emociones aún es una tecnología en ciernes y en pleno desarrollo, ya se está utilizando en algunos países (por ejemplo, China) y se estudia su aplicación en ámbitos como la medicina, la seguridad vial, el trabajo o el marketing. Algunas de sus aplicaciones incluyen:

  • Medicina: Para detectar enfermedades relacionadas con determinados gestos corporales o la ausencia de los mismos.
  • Perfiles de personalidad: Aplicables en ámbitos comerciales o laborales, por ejemplo, en las entrevistas de trabajo.
  • Control de calidad en servicios: Para mejorar la atención al cliente.

Aunque esta tecnología comienza a ser una realidad, aún está en sus primeras etapas. No obstante, ya está presente en el Reglamento de Inteligencia Artificial como una actividad o aplicación de alto riesgo.

¿Protege la Ley de Protección de Datos las emociones?

La Ley de Protección de Datos no protege las emociones como tal, ya que no se consideran datos personales. Sin embargo, sí protege los datos biométricos, cuyo análisis es necesario para poder llevar a cabo el reconocimiento de emociones. Esto significa que el RGPD y la LOPD protegen de manera indirecta las emociones.

Además, del reconocimiento de emociones se pueden inferir otros datos especialmente protegidos, como información sobre la salud o nuestras opiniones políticas. Por ejemplo, si se emplea un sistema de reconocimiento facial basado en IA durante un mitin político y del análisis e información obtenida se puede saber qué tipo de iniciativas o ideas tienen mejor acogida en función de las emociones suscitadas, esta información podría usarse para perfilar la ideología de una persona.

El análisis y reconocimiento de emociones podría usarse también para perfilar a los usuarios de gafas de realidad aumentada o virtual o realidad mixta, cuando las usan para navegar por internet o ver determinados contenidos. En protección de datos, no se trata solo de un dato concreto, sino de la recogida y análisis de varios datos que permiten inferir información de una persona, sus hábitos y sus intereses. El reconocimiento de emociones podría llevar esto un paso más allá.

Riesgos de la tecnología de reconocimiento de emociones para la protección de datos

Uno de los aspectos del reconocimiento de emociones y la protección de datos que debemos tener muy en cuenta es el riesgo que suponen estas tecnologías para la privacidad de las personas. En algunos casos, incluso pueden suponer una intromisión en el derecho al honor, ya que las emociones son parte de la esfera más íntima de una persona. Analizarlas e interpretarlas sin informar y sin el consentimiento de las personas es vulnerar su derecho al honor y a la intimidad.

Entre los problemas y riesgos que plantea la tecnología de reconocimiento de emociones para la protección de datos destacan los siguientes:

  • Precisión de los datos: Al estar ante una tecnología aún en desarrollo, el reconocimiento de emociones basado en expresiones o gestos faciales o corporales o el tono de voz puede no ser preciso y conducir a conclusiones erróneas. La calidad del dato depende mucho de la tecnología empleada y del contexto sociocultural de las personas.
  • Sesgos y discriminación: Un sistema de IA será tan bueno como los datos con los que se haya entrenado. Si un sistema de reconocimiento de emociones se ha entrenado con datos poco diversos, ofrecerá conclusiones sesgadas que pueden conducir a la discriminación de determinados grupos étnicos y de género.
  • Falta de transparencia: Actualmente, los desarrolladores de sistemas de IA no son todo lo transparentes que deberían ser sobre cómo funcionan sus sistemas y con qué información están siendo entrenados. Esto conduce a una falta de control sobre los datos biométricos, cómo son procesados y con qué finalidad.
  • Tratamiento de datos de categorías especiales: El reconocimiento de emociones requiere del tratamiento de datos biométricos. Además, a través del análisis e interpretación de las emociones, se pueden inferir otros datos de categorías especiales, como el estado de salud o la ideología política.
  • Perfilado: El reconocimiento de emociones puede conducir al perfilado de las personas, incluso hacerlo en tiempo real. Esto podría abrir las puertas a formas de seguimiento y monitoreo de los individuos para poder incluso manipular sus acciones sin que sean conscientes de ello.

Anticipación y prevención 

El reconocimiento de emociones está aún en desarrollo, pero ser conscientes de los riesgos que implica para la privacidad es fundamental tanto para las personas como para las empresas y organizaciones que tengan intención de utilizar esta tecnología en el futuro. Puede que la Ley de Protección de Datos no hable de emociones ni las proteja directamente, pero sí lo hace de forma indirecta a través de la protección de los datos biométricos necesarios para llevar a cabo cualquier análisis de emociones.

Las empresas y desarrolladores deben llevar a cabo los correspondientes análisis de riesgos en la protección de datos y evaluaciones de impacto para cumplir con los principios de privacidad desde el diseño y por defecto. Además, deben ser transparentes sobre cómo funcionan sus sistemas y con qué información están siendo entrenados para garantizar que el consentimiento dado por los usuarios sea realmente informado.

La clave para un uso responsable del reconocimiento de emociones radica en la anticipación y prevención, asegurando que todas las acciones y decisiones corporativas se alineen con las normativas vigentes y los principios éticos fundamentales.

Más artículos sobre cumplimiento normativo

Más de 20 años cumpliendo contigo

¿Necesitas ayuda?

Te asignaremos un consultor experto para buscar una solución a tu problema en menos de 24h. ¡Escríbenos!

¡Será un placer ayudarte!

¿Necesitas asesoramiento personalizado?
¿Necesitas un presupuesto a medida?

Te ayudamos

Coméntanos tu problema para asignarte un consultor especializado y darte una solución jurídica en menos de 24hs.

INFORMACIÓN BÁSICA SOBRE PROTECCIÓN DE DATOS
Responsable del tratamiento: AUDIDAT 3.0, S.L. | Dirección del responsable: Paseo de la Castellana 182, 6ª planta 28046 Madrid | Finalidad: Sus datos serán usados para poder atender sus solicitudes y prestarle nuestros servicios. Asimismo, si usted nos ha facilitado su currículum personal, sus datos personales serán utilizados para participar en nuestros procesos de selección. | Publicidad: Solo le enviaremos publicidad con su autorización previa, que podrá facilitarnos mediante la casilla correspondiente establecida al efecto. | Legitimación: Únicamente trataremos sus datos con su consentimiento previo, que podrá facilitarnos mediante la casilla correspondiente establecida al efecto. | Destinatarios: Con carácter general, sólo el personal de nuestra entidad que esté debidamente autorizado podrá tener conocimiento de la información que le pedimos. Así mismo comunicaremos su información a entidades ofertantes interesadas en su perfil curricular. | Derechos: Tiene derecho a saber qué información tenemos sobre usted, corregirla y eliminarla, tal y como se explica en la información adicional disponible en nuestra página web. | Información adicional: Más información en el apartado ““política de privacidad”” de nuestra página web. | Delegado de Protección: de Datos dpd@audidat.com