La inteligencia artificial está transformando radicalmente el mundo digital, ofreciendo soluciones innovadoras y potenciando la generación de contenido de manera mucho más rápida. Sin embargo, esta inteligencia también tiene vulnerabilidades como las últimas descubiertas dentro de Gemini, la suite de Modelos de Lenguaje de Gran Escala (LLMs) de Google por HiddenLayer que afectan a la privacidad.

La identificación de estas vulnerabilidades en Gemini de Google resalta los riesgos potenciales asociados con los LLMs y la generación de contenido impulsada por IA. A medida que la IA continúa evolucionando e integrándose en diversos aspectos de la vida diaria, garantizar la seguridad e integridad de estas tecnologías se vuelve primordial.

Gemini representa el modelo más reciente de Google en el ámbito de los LLMs, ofreciendo tres versiones diferenciadas: Nano, Pro y Ultra. Desde sus inicios no ha tenido una trayectoria muy positiva, pues fue retirada temporalmente del servicio por generar contenido con sesgo político. Ahora parece que las vulnerabilidades identificadas exponen nuevas amenazas que podrían ser explotadas por ciberdelincuentes.

Fugas de Prompt en LLM y Jailbreaks

Uno de los problemas críticos encontrados es la «Fuga de Prompt en LLM», que podría permitir a los atacantes acceder a datos sensibles o prompts del sistema, comprometiendo gravemente la privacidad de los datos.

Además, la capacidad de realizar «Jailbreaks» o evitar las salvaguardias de los modelos, posibilita la manipulación de la IA para generar desinformación, especialmente en temas delicados como las elecciones.

Otra vulnerabilidad preocupante es la de las «Inyecciones Indirectas», donde los atacantes pueden manipular indirectamente la salida del modelo a través de cargas útiles retardadas inyectadas mediante plataformas como Google Drive. Este método complica aún más la detección y mitigación de tales amenazas, destacando la sofisticación de los riesgos de seguridad asociados con los LLMs.

Implicaciones de estas vulnerabilidades

El impacto que podrían tener estas vulnerabilidades se extiende a través de diversos sectores, desde el público general hasta empresas y gobiernos, planteando riesgos significativos de desinformación, fuga de datos sensibles y compromiso de la seguridad nacional.

La capacidad de generar contenido falso o manipulado directamente amenaza la confianza pública en el contenido generado por IA, mientras que las empresas que utilizan la API de Gemini para la generación de contenido podrían enfrentar riesgos de fuga de información corporativa sensible.

Google limita consultas por desinformación

Hasta la fecha, Google aún no ha emitido una respuesta formal a estas brechas descubiertas por HiddenLayer, pero sí que ha tomado una iniciativa para afrontar la posible desinformación política de cara a las elecciones.

Lo que sí ha hecho Google en Gemini es restringir respuestas relacionadas con las elecciones. Con el objetivo de evitar la politización de la tecnología y asegurar su uso responsable, Gemini ha sido programado para no responder a consultas relacionadas con elecciones, tanto en Estados Unidos como en cualquier otro país.

La política implementada por Google en su chatbot, Gemini, establece una restricción geográfica peculiar en relación con las preguntas sobre elecciones, condicionando la disponibilidad de respuestas a la ubicación del usuario. Si una persona intenta obtener información sobre procesos electorales a través de Gemini, deberá hacerlo desde un país que no esté en período electoral. En estos casos, el chatbot está programado para proporcionar respuestas, tal como Google ha especificado en su comunicado.

Google ha destacado que se toma «muy en serio» su responsabilidad de proporcionar «información de alta calidad para este tipo de consultas» y que trabaja «continuamente» para mejorar la seguridad de sus usuarios.

La medida adoptada por Google de limitar las capacidades de respuesta de Gemini en asuntos electorales, especialmente en vista de las inminentes elecciones en América y Europa, reflejada en la transición del chatbot desde su anterior denominación como Bard, subraya la crucial necesidad de enfrentar de manera anticipada los desafíos que presentan las nuevas habilidades de la inteligencia artificial.

 

Periodista especializada en ciberseguridad y tecnología. Mi enfoque se centra en analizar mundo de las aplicaciones y la seguridad especialmente en redes sociales. Con un interés constante en informar sobre avances, riesgos y sin olvidar la importancia de la prevención, busco compartir información precisa y comprensible para el usuario.

Deja un comentario

Por favor, introduce tu comentario
Por favor, introduce tu nombre