En 2025, las empresas enfrentarán nuevos desafíos de ciberseguridad, marcados por la proliferación de la inteligencia artificial generativa y la sofisticación de los ataques de phishing. Un reciente informe de Netskope revela un panorama preocupante en el mundo de la ciberseguridad: la efectividad del phishing y los riesgos derivados del uso de aplicaciones personales y herramientas de IA generativa continúan creciendo de manera exponencial.
El aumento de los ataques de phishing
El informe de Netskope destaca que en 2024 los empleados hicieron clic en enlaces de phishing casi tres veces más que el año anterior. Esto representa un incremento del 190 %, con más de ocho de cada mil usuarios siendo víctimas mensualmente. Las campañas de phishing se han centrado especialmente en aplicaciones populares en la nube como Microsoft OneDrive, Google Drive y GitHub. Microsoft, en particular, fue el objetivo principal de los atacantes, representando el 42 % de los clics dirigidos a credenciales de Microsoft Live y Microsoft 365.
Estos ataques aprovechan la confianza implícita en las plataformas en la nube y exponen a las empresas a riesgos significativos. El 88 % de las organizaciones descargaron contenido malicioso desde estas aplicaciones al menos una vez al mes en 2024.
El peligro de las apps personales
El uso de aplicaciones personales en el entorno empresarial también plantea un problema creciente. En 2024, el 88 % de los empleados utilizó apps personales en la nube cada mes, y más de una cuarta parte cargó o compartió datos sensibles a través de estas herramientas.
Los datos regulados, como información personal, financiera o sanitaria, constituyen el 60 % de las infracciones de seguridad relacionadas con apps personales. Además, también se han visto comprometidos datos de propiedad intelectual (16 %), código fuente (13 %) y claves de acceso (11 %). Estos desafíos subrayan la necesidad de limitar el uso de apps no autorizadas y establecer controles más rigurosos para la gestión de datos.
La IA generativa en el punto de mira
El auge de la inteligencia artificial generativa (genAI) ha revolucionado el lugar de trabajo, pero también ha introducido nuevos riesgos de seguridad. En 2024, el 94 % de las empresas utilizó herramientas de IA generativa, con ChatGPT liderando el mercado. Sin embargo, el aumento en el uso de estas herramientas ha complicado la protección de datos empresariales.
Las organizaciones han adoptado estrategias como la prevención de pérdida de datos (DLP) para controlar el flujo de información en aplicaciones genAI. Aun así, el 73 % de las empresas bloquea al menos una aplicación de IA generativa, lo que refleja la preocupación generalizada por los posibles riesgos. Los sectores de telecomunicaciones y tecnología lideran la implementación de medidas de seguridad, pero aún queda camino por recorrer.
Recomendaciones para las empresas
Netskope sugiere varias medidas clave para abordar estos desafíos:
- Inversión en protección de datos: Complementar la formación en seguridad con sistemas modernos que detecten y mitiguen intentos de phishing.
- Control del uso de apps personales: Limitar el acceso a herramientas no autorizadas, establecer procesos de revisión y realizar auditorías constantes.
- Gestión segura de la IA generativa: Implementar controles para garantizar el uso responsable de las aplicaciones aprobadas y ofrecer formación en tiempo real para los empleados.
Según Ray Canzanese, director de Netskope Threat Labs, la clave para enfrentar el panorama de amenazas en constante evolución está en adoptar un enfoque dinámico y proactivo. «La seguridad de datos ya no se limita a la defensa perimetral; debe integrarse en todos los aspectos de las operaciones de una organización«, afirma el experto ciberseguridad.
Con medidas como la capacitación interactiva, el uso de DLP y controles específicos de aplicaciones, las empresas pueden prepararse mejor para los desafíos que traerá 2025. La seguridad de los datos no es solo una prioridad, sino una necesidad estratégica para el futuro empresarial.