El avance de la IA ha revolucionado la forma en que trabajamos y procesamos la información. Sin embargo, este progreso también ha traído consigo riesgos significativos en materia de seguridad y protección de datos.
Una investigación reciente realizada por CybSafe y la Alianza Nacional de Ciberseguridad (NCA) ha revelado que más de un tercio (38%) de los empleados comparten información laboral confidencial con herramientas de IA sin el consentimiento de sus empleadores.
Este hallazgo plantea una gran preocupación, especialmente para las organizaciones que confían en mantener la integridad y seguridad de su información sensible.
El comportamiento predominante entre las generaciones más jóvenes
El estudio, que encuestó a más de 7000 personas en países como Estados Unidos, Reino Unido, Canadá, Alemania, Australia, India y Nueva Zelanda, destaca una tendencia inquietante: el comportamiento de compartir información confidencial con IA es particularmente común entre las generaciones más jóvenes. Según los datos, el 46% de la Generación Z y el 43% de los millennials admitieron haber compartido información laboral confidencial con herramientas de IA sin el permiso de su empleador.
Estas cifras ponen en evidencia que la rápida adopción de herramientas de IA, especialmente entre los jóvenes, no siempre va acompañada de una comprensión adecuada de los riesgos que implica su uso. Las generaciones más jóvenes, al estar más acostumbradas a interactuar con tecnología avanzada, parecen ser más propensas a pasar por alto las políticas de seguridad establecidas por sus empleadores, subestimando las posibles consecuencias de compartir datos sensibles.
La falta de formación en el uso seguro de la IA
Una de las razones clave detrás de este comportamiento es la falta de formación sobre el uso seguro de la inteligencia artificial. Según el mismo informe, el 52% de los empleados encuestados indicaron que no han recibido ninguna formación sobre cómo utilizar la IA de manera segura. Este problema también se extiende a otros grupos, como los estudiantes, de los cuales el 58% no ha recibido ningún tipo de formación en IA, al igual que el 84% de las personas no activamente empleadas y el 83% de los jubilados.
El hecho de que una proporción tan significativa de la fuerza laboral carezca de la formación necesaria en IA es preocupante, ya que deja a las organizaciones expuestas a posibles fugas de datos, tanto intencionadas como accidentales. Oz Alashe, CEO y fundador de CybSafe, destaca que la introducción de la IA ha creado una nueva categoría de comportamientos de seguridad que las empresas deben tener en cuenta. Según Alashe, aunque los responsables de seguridad son conscientes de los peligros de la IA, esta conciencia aún no se ha traducido en comportamientos de seguridad consistentes por parte de los empleados.
Los mayores riesgos de la IA para la ciberseguridad
Uno de los desafíos más grandes que enfrentan las organizaciones al implementar IA es la vulnerabilidad de los datos organizacionales. Según Ronan Murphy, miembro del Consejo Asesor de IA del Gobierno de Irlanda, el acceso de las herramientas de IA a los datos de las empresas representa uno de los mayores riesgos en términos de ciberseguridad, gobernanza y cumplimiento normativo. Murphy advierte que si los empleados alimentan modelos de IA con información sensible, como propiedad intelectual o datos confidenciales, cualquiera con acceso a esos modelos podría obtener esa información.
Esta situación plantea una amenaza sin precedentes para la seguridad de la información, ya que el uso descuidado de la IA podría exponer información confidencial de manera no controlada. Murphy sugiere que, para adoptar la IA de manera segura y aprovechar sus beneficios operativos, las organizaciones deben asegurarse de que los datos sean «desinfectados» antes de ser ingresados en las aplicaciones de IA. Esto implica que las empresas deben establecer políticas claras sobre qué tipos de información pueden ser procesados por estas herramientas y asegurarse de que los empleados las sigan.
Preocupación generalizada sobre los riesgos cibernéticos de la IA
Además de los riesgos relacionados con la compartición de información confidencial, el estudio también reveló una creciente preocupación por los delitos cibernéticos asociados con la IA. Dos tercios (65%) de los encuestados expresaron su inquietud sobre la posibilidad de que las herramientas de IA sean utilizadas para crear correos electrónicos de phishing más sofisticados y convincentes. De hecho, más de la mitad (52%) cree que la IA dificultará la detección de estafas, mientras que el 55% considera que esta tecnología hará más difícil estar seguro en línea.
Estos temores no son infundados, ya que los ciberdelincuentes están empezando a utilizar herramientas de IA para perfeccionar sus técnicas, haciendo que los ataques sean más difíciles de detectar y contrarrestar. La IA permite generar textos más creíbles, lo que aumenta las probabilidades de que las personas caigan en trampas de phishing o que compartan información confidencial sin darse cuenta del riesgo.
Falta de confianza en la implementación de la IA
A pesar de los beneficios potenciales de la IA, también existe una falta de confianza significativa en su implementación por parte de las empresas. El informe muestra que solo el 36% de los encuestados tiene mucha confianza en la forma en que las organizaciones están implementando la IA, mientras que un 35% expresa poca confianza en su uso adecuado. El 29% restante se mantiene neutral.
Además, el informe refleja que solo el 36% de los encuestados cree que las empresas están tomando las medidas necesarias para garantizar que las tecnologías de IA estén libres de sesgos, mientras que un 30% sigue dudando de que esto sea así. La desconfianza en torno a la IA no solo afecta la seguridad, sino que también genera preocupaciones sobre la objetividad y la ética en su aplicación.
Una cosa está clara: El uso de herramientas de IA en el lugar de trabajo presenta grandes oportunidades, pero también plantea importantes riesgos en materia de seguridad y protección de datos.