ChatGPT sigue estando en el punto de mira de instituciones públicas y privadas en todo el mundo debido a las polémicas recientes generadas por violaciones de privacidad. La última se ha producido en Italia, donde la Garante (autoridad de protección de datos del país) ha alertado que vulnera por completo las normas de protección de datos.

Pese a que las investigaciones siguen en curso, ha concluido que los elementos extraídos de ChatGPT denotan una o más posibles violaciones de la privacidad de los datos. Ante esto, OpenAI se defendió asegurando que sus prácticas se encuentran perfectamente alineadas con las leyes de privacidad de la UE y que trabajan activamente para reducir los datos personales en la capacitación de sus sistemas, como ChatGPT.

Fuera como fuese, ahora OpenAI tiene 30 días para presentar argumentos de defensa, aunque la Garante tendrá en cuenta el trabajo realizado por un grupo de trabajo especializado en materia de vigilancia y protección de la privacidad en Europa.

Antecedentes recientes

La denuncia de la Garante es firme y recuerda a otro caso acontecido en 2023, en el que ChatGPT violó supuestamente las normas de privacidad de la UE. En aquella ocasión, el servicio fue reactivado después de que OpenAI abordase cuestiones vinculadas al derecho de los usuarios a negarse a dar su consentimiento para dar sus datos al entrenamiento de algoritmos.

Italia se convirtió en el primer país de Europa Occidental en plasmar sus quejas ante ChatGPT. No obstante, el Reglamento General de Protección de Datos (GDPR) de la UE se encuentra vigente desde 2018 y recoge que cualquier empresa que haya infringido las reglas se enfrentará a multas de hasta el 4% de su facturación global.

La Agencia Española de Protección de Datos también abrió una investigación de oficio a OpenAI, estudiando la posibilidad de que ChatGPT no cumpliese con la RGPD y, por consiguiente, bloqueando su uso en el territorio nacional.

Ya en diciembre de 2023, los legisladores y gobiernos de la UE fijaron una serie de términos provisionales para regular los sistemas de IA, como ChatGPT, intentando frenar a una tecnología que avanza a pasos agigantados.

La UE se convierte así en el primer legislador mundial que ha intentado crea derecho sobre la IA, pudiendo llegar a convertirse en una norma mundial para regular la IA en otras jurisdicciones, siguiendo la estela del RGPD. De este modo, se busca que la IA fuese 100% segura, fiable y ética.

Sin dejar de favorecer a la innovación, las nuevas normas imponen obligaciones para los proveedores de IA y regulan la autorización de sistemas de IA en el mercado único de la UE.

¿Los datos de los usuarios están a salvo con ChatGPT?

ChatGPT obtiene grandes cantidades de texto para aprender a predecir la probabilidad de una palabra según su contexto, comprendiendo estructuras de lenguaje y generando respuestas automáticas. No obstante, cuantos más datos se le ofreciesen, mayores serían los riesgos de uso.

ChatGPT se nutre de páginas webs, foros, libros, blogs o periódicos, sin pararse a analizar si se violan o no datos personales ni solicitar consentimiento explícito a las personas implicadas.

Cuando se va a usar ChatGPT es necesario incluir nombre, email, número de móvil y contraseña y ya después recoge todas las consultas realizadas en base a nuestras necesidades y nuestro comportamiento en internet. De hecho, ChatGPT especifica que es responsabilidad del usuario tener cuidado al compartir información personal o sensible durante una conversación en línea.

Todo esto hace pensar que la política de privacidad de ChatGPT hace alusión al uso de los datos de los usuarios que se registran, pero no habla de los datos personales que usa la IA de otras fuentes para generar sus respuestas. Tampoco está claro cómo rectificar o cancelar el uso de nuestra información personal, ya que no aparece en la política de privacidad de datos de ChatGPT.

ChatGPT simplemente recoge la dirección IP, el tipo de navegador y la configuración de los usuarios. Según el Reglamento (UE) 2016/679, ChatGPT estaría incumpliendo la privacidad de datos, ya que el usuario no tiene constancia de qué va a hacer ChatGPT con el tratamiento masivo de datos personales.

El hándicap de ChatGPT es que en ocasiones los datos no son 100% exactos, presentando sesgos y una información de poca calidad con datos poco fiables que fomentan la desinformación, el plagio y la infracción de los derechos de propiedad intelectual.

Queda demostrado que ChatGPT no cumple con el RGPD, por lo que se recomienda a los usuarios leer detenidamente los términos y condiciones de uso y desactivar el historial de nuestros datos.

El objetivo, ante una IA en constante evolución, es que ChatGPT informe sobre cómo pueden los usuarios oponerse a que sus datos sean usados para entrenar a los algoritmos y que no esté en manos de menores de 13 años. Además, se exige que haya un responsable de protección de datos.

Saltan las alertas porque ChatGPT infringe la privacidad

De hecho, recientemente se ha dado a conocer una nueva investigación que indica que ChatGPT está filtrando conversaciones privadas que incluyen credenciales de inicio de sesión y otros datos personales de usuarios no relacionados. Así pues, se recogen detalles de una propuesta de investigación inédita y un script que utiliza el lenguaje de programación PHP.

Previamente, en noviembre de 2023 se conoció que se estaban utilizando consultas para incitar a ChatGPT a divulgar direcciones de correo electrónico, números de teléfono, direcciones postales y otros datos privados, empleados previamente para su entrenamiento. Esto ha llevado a empresas como Apple a restringir el uso de ChatGPT y sitios similares por parte de sus empleados.

Deja un comentario

Por favor, introduce tu comentario
Por favor, introduce tu nombre