- El uso de aplicaciones personales y de IA generativa en el sector financiero supone riesgos para la protección de datos sujetos a regulación.
- El 74 % de las infracciones de datos en aplicaciones personales involucra información financiera y personal regulada.
- Casi el 1,5 % de los empleados del sector financiero es víctima de intentos de phishing o malware cada mes.
- Las entidades financieras están implementando estrategias como DLP (prevención de pérdida de datos) y formación en ciberseguridad para mitigar estos riesgos.
Amenazas emergentes en el sector financiero
Un informe reciente de Netskope Threat Labs analiza las principales amenazas a la seguridad de los datos en el sector financiero, destacando tres grandes riesgos: el uso de aplicaciones personales, la inteligencia artificial generativa y las amenazas de ingeniería social.
El estudio alerta sobre la creciente exposición de datos personales y financieros regulados, lo que puede suponer vulneraciones del Reglamento General de Protección de Datos (RGPD) y otras normativas de seguridad.
Aplicaciones personales: riesgo de fuga de datos
El 13 % de los empleados del sector financiero sube datos confidenciales a aplicaciones personales en la nube, a pesar de que el 83 % de las empresas ha implementado controles de seguridad.
Entre las infracciones más frecuentes, el 74 % implica la subida de datos personales y financieros regulados a plataformas como Google Drive y OneDrive. También se detectó la publicación de información en redes sociales personales y el uso de herramientas de almacenamiento en la nube no corporativas.
Este problema resalta la necesidad de políticas de seguridad contextualizadas, que diferencien entre aplicaciones personales y corporativas para evitar la filtración de datos críticos.
IA generativa y protección de datos
El 95 % de las empresas financieras ya usa aplicaciones de IA generativa. Aunque ChatGPT sigue siendo la más utilizada, herramientas como Microsoft Copilot, Google Gemini y Anthropic Claude están ganando presencia en el sector.
Las infracciones relacionadas con la genAI afectan principalmente a:
- Propiedad intelectual.
- Código fuente.
- Datos personales y financieros regulados.
Para mitigar estos riesgos, el 90 % de las entidades bloquea al menos una aplicación de IA generativa, y el uso de DLP (prevención de pérdida de datos) ha aumentado del 35 % al 52 % en el último año.
Ingeniería social: phishing y malware en el sector financiero
El sector financiero sigue siendo un objetivo prioritario para los ciberdelincuentes. Según el informe:
- 1,5 de cada 100 usuarios recibe intentos de phishing o malware cada mes.
- 9,8 de cada 1000 empleados es engañado para descargar malware.
- 4,7 de cada 1000 empleados accede a una página de phishing.
Las principales tácticas de ataque incluyen:
- Suplantación de marcas populares: Microsoft, DocuSign y Adobe fueron las más usadas en ataques de phishing.
- SEO poisoning: los atacantes manipulan motores de búsqueda para posicionar páginas de phishing y engañar a los empleados.
- Uso de GitHub para distribuir malware, explotando la confianza en esta plataforma.
Estrategias para mitigar riesgos
Ante estos desafíos, las empresas del sector financiero están reforzando su seguridad con:
✅ Políticas de prevención de pérdida de datos (DLP) para controlar el acceso y uso de información sensible.
✅ Formación continua en ciberseguridad para empleados, enfocada en detectar intentos de phishing y malware.
✅ Implementación de controles avanzados en aplicaciones de IA generativa para evitar fugas de datos.