¿Debemos tener precaución con las «conversaciones» que mantenemos con ChatGPT? El auge de las herramientas de inteligencia artificial y chatbots está suponiendo una revolución, y al mismo tiempo la rapidez con la que evoluciona se están lanzando cada vez más aplicaciones está haciendo saltar la señal de alarma.

Hace unos días, Geoffrey Hinton, el que es considerado «padrino» de la inteligencia artificial, dejó Google avisando de los peligros de esta tecnología, que puede convertirse en una amenaza. Otros directivos de la compañía han llegado a reconocer que a día de hoy no entienden algunas de las capacidades que tiene la propia inteligencia artificial que están desarrollando.

En términos de ciberseguridad, la propia privacidad de ChatGPT se ha puesto en duda. La agencia de datos italiana pidió el bloqueo temporal de esta herramienta por no cumplir con el Reglamento de Protección de Datos. OpenAI ya ha implementado cambios, y vuelve a estar en pleno funcionamiento. Pero las dudas siguen ahí.

«Puede ocurrir que otros países puedan tomar medidas similares, especialmente si se descubren irregularidades en el tratamiento de la información o violaciones de leyes de protección de datos», nos explica Marc Rivero, Senior Security Researcher de Kaspersky, a quien hemos tenido la oportunidad de entrevistar. Sobre este tema, puntualiza: «Es de suma importancia que los desarrolladores de modelos de lenguaje de Inteligencia Artificial, como es el caso de ChatGPT, se aseguren de cumplir con las normas y regulaciones en materia de protección de datos en los países donde operan».

Bit Life media. ¿Qué riesgos de ciberseguridad y privacidad puede conllevar el uso de ChatGPT?

Marc Rivero. Uno de los riesgos es que las conversaciones que se tienen con el modelo de lenguaje pueden revelar información personal o confidencial si el usuario lo comparte. Además, al basarse en Inteligencia Artificial, siempre existe el riesgo de que los datos que se proporcionan puedan ser utilizados para mejorar el modelo, lo que podría incluir el uso de información personal sin el consentimiento del usuario.

Por otro lado, ChatGPT podría ser vulnerado por ataques de ciberdelincuentes o malware, lo que pondría en riesgo la privacidad y la seguridad de los usuarios. Por ello, sus desarrolladores deberían implementar medidas de seguridad adecuadas y eficaces para proteger el modelo frente a posibles amenazas y mantener la privacidad y la seguridad de las personas que hacen uso de él.

BLm. ¿Debemos tener cuidado entonces con lo que le contamos a ChatGPT?

MR. Los usuarios han de tener en cuenta que, al utilizar cualquier servicio online, incluyendo ChatGPT, siempre es recomendable tomar algunas precauciones para proteger la privacidad y seguridad de los usuarios, evitando facilitar información sensible y susceptible de ser captada por ciberdelincuentes.

«Es fundamental verificar la fuente de la información que recibes a través de ChatGPT»

BLm. ¿Es posible evitar que ChatGPT comparta la información con terceros?

MR. Si un usuario comparte información personal o confidencial durante una conversación con ChatGPT, existe el riesgo de que esta información sea compartida con terceros involuntariamente. Para evitar esto, es recomendable, en primer lugar, no compartir dicha información personal y utilizar la plataforma desde un entorno seguro, evitando conexiones públicas no seguras o redes Wi-Fi desconocidas.

También es importante actualizar regularmente los dispositivos y aplicaciones utilizadas para acceder a este sistema, y revisar los términos y condiciones de uso, así como las políticas de privacidad, para entender cómo se manejan los datos de los usuarios.

BLm. ¿Podrían usar la información que le facilitamos al chatbot con fines comerciales? ¿Y con algún otro uso?

MR. ChatGPT no comparte los datos de los usuarios con terceros, a menos que se le solicite explícitamente y se cuente con el consentimiento previo del usuario para hacerlo. Este sistema está diseñado para proteger y respetar la privacidad de los usuarios, y todos los datos que recopila se utilizan únicamente para mejorar la calidad de las respuestas que se proporcionan.

A pesar de ello, es importante destacar que ChatGPT es un servicio en línea proporcionado por OpenAI, empresa que, según su política de privacidad, puede recoger la dirección IP, el tipo de navegador y su configuración, así como datos sobre las funciones que utilizan y las acciones. También puede guardar información sobre el comportamiento de navegación y sitios web visitados por los usuarios que usen la plataforma.

«Los ciberdelincuentes pueden usar estos sistemas para llevar a cabo ataque»

BLm. ¿Cómo deberíamos usar con seguridad y privacidad ChatGPT los usuarios en términos generales?

MR. Es importante no compartir información personal. Además, es fundamental verificar la fuente de la información que recibes a través de ChatGPT o cualquier otro servicio en línea, especialmente si se trata de información importante o confidencial.

También es recomendable que, cuando los usuarios hayan terminado de usar esta plataforma, se aseguren de cerrar la sesión para evitar que alguien más acceda a tus conversaciones.

Pero, aunque se tomen precauciones, no se puede garantizar la seguridad completa. Por ello, siempre es recomendable ser cuidadoso y estar alerta al utilizar cualquier servicio en línea, además de disponer de una solución de seguridad de confianza.

BLm. Por otro lado, ¿cómo podrían usarse (o si están usando ya) este tipo de chatbots e IA por parte de los ciberdelincuentes?

MR. Los ciberdelincuentes pueden usar estos sistemas para llevar a cabo ataques de phishing, para distribuir malware o enlaces maliciosos que infectan el dispositivo del usuario y comprometen su seguridad y privacidad, o ser utilizados para llevar a cabo ataques de fuerza bruta contra contraseñas de acceso, intentando adivinar las contraseñas utilizando diferentes combinaciones de caracteres.

Por otro lado, también pueden enfocarse en estafar y engañar a los usuarios para que realicen transferencias de dinero o revelen información personal, y para suplantar la identidad de una empresa o persona.

BLm. Y, ¿podemos usarlos por parte de la ciberseguridad?

MR. Sí, los chatbots y modelos de lenguaje basados en Inteligencia Artificial también pueden ser utilizados por equipos de ciberseguridad para mejorar la detección y prevención de amenazas y ataques informáticos.

También para monitorear las actividades online de los usuarios y detectar patrones o comportamientos sospechosos que puedan indicar la presencia de una amenaza. Además, estos sistemas pueden ser entrenados para identificar posibles vulnerabilidades en el software y las aplicaciones, permitiendo a los equipos de ciberseguridad tomar medidas preventivas antes de que se produzca un ataque.

BLm. Recientemente salió a la luz una brecha de ChatGPT en la que se podía acceder a información de otros usuarios. ¿Están seguros nuestros datos en este tipo de chatbots y en concreto en ChatGPT? ¿Podrían llegar a acceder a ella otras personas o empresas?

MR. Sí. Cuando hacemos una consulta, los datos asociados se transmiten a través de una conexión segura, utilizando un protocolo de encriptación HTTPS. Este novedoso sistema de Inteligencia Artificial está diseñado con medidas de seguridad para proteger la información que recopila durante una sesión de chat. Todos los datos se almacenan en un entorno controlado y se llevan a cabo prácticas para evitar el acceso no autorizado, la divulgación o el uso indebido de los datos.

Lo único que hay que tener en cuenta es que la política de privacidad de ChatGPT se refiere únicamente al uso de los datos de los usuarios registrados en dicha plataforma, pero no especifica nada sobre el uso de datos personales que puede hacer la IA de otras fuentes, como las que usa para generar los textos que devuelve.

Periodista especializada en seguridad informática y tecnología. Cofundadora y directora editorial de Bit Life Media, web dedicada a la actualidad de la tecnología, ciberseguridad e innovación. Presentadora de eventos y ponente especializada en seguridad informática y concienciación. Autora de "Ciberseguridad, consejos para tener vidas digitales más seguras".

Deja un comentario

Por favor, introduce tu comentario
Por favor, introduce tu nombre