A estas alturas, todo el mundo sabe que todo lo que escribimos en internet y que cada artículo e información publicada existente es la base para crear los resultados de búsqueda que nos ofrece cualquier opción de inteligencia artificial.

Por ejemplo. Si queremos redactar un artículo sobre `La historia de la ciudad de Madrid´. Y escribimos dicha frase en ChatGPT, nos construirá un artículo con información recopilada de diferentes fuentes. Bien estructurada y diversa para tener ante nuestros ojos un contenido que parece, a todas luces, escrito por humanos. Y, en realidad, aunque está generado por IA, el alma de éste tiene multitud de padres y madres diferentes.

Pero, ¿y si no queremos que nuestros datos se utilicen para entrenar la IA? ¿podemos conseguirlo? En medio de un intento de regulación eficiente por parte de diferentes países y organismos, y también con las cada vez más numerosas demandas a las que se enfrenta la IA por parte de medios de comunicación y editoriales, es preciso conocer cómo podemos intentar que nuestros datos no sean utilizados por la inteligencia artificial.

Los grandes modelos de lenguaje, como ChatGPT, y los creadores de imágenes funcionan con grandes cantidades de nuestros datos. E incluso si no estamos alimentando un chatbot, los datos se pueden usar para otras funciones de aprendizaje automático.

Muchas de las quejas sobre la IA ponen sus ojos sobre un mismo tema: los derechos de autor. Las empresas tecnológicas recopilan datos sin tener en cuenta a los creadores de contenido, sus derechos como autores e, incluso, la privacidad. También hay empresas que buscan participar en la fiebre de la IA vendiendo o licenciando información y datos.

En mitad de todo ello, también hay empresas que ya permiten que sus clientes, individuales y comerciales, opten por no utilizar su contenido en el entrenamiento de IA. Un paso importantísimo en este sentido donde, al parecer, los límites de la IA pueden empezar a ponerlos cada uno.

La siguiente lista solo incluye empresas que actualmente tienen un proceso de exclusión de datos. Por ejemplo, Copilot de Microsoft no ofrece a los usuarios con cuentas personales la opción de que su uso no se utilice para mejorar el software. Aunque eso sí, Microsoft toma medidas para anonimizar los datos antes de que se utilicen, lo que ayuda a proteger la identidad del consumidor.

Cómo optar para que los datos no se usen para entrenar la IA

Adobe

Si almacenas archivos en Creative Cloud de Adobe, la empresa sí puede usarlos para entrenar su algoritmo de aprendizaje automático. Aunque eso sí, si estás utilizando una cuenta personal de Adobe, es fácil darse de baja. Basta con abrir la página de privacidad de Adobe, desplazarse hacia abajo hasta la sección Análisis de contenido y hacer clic en el botón de alternancia para desactivarla. En el caso de las cuentas de empresa o de centros educativos, el proceso de exclusión voluntaria no está disponible a nivel individual por lo que es preciso ponerse en contacto con un administrador.

Amazon Web Services

Los servicios de IA de Amazon Web Services, como Amazon Rekognition o Amazon CodeWhisperer, sí que guardan los datos de los clientes para mejorar las herramientas de la empresa.

Amazon sí ofrece una opción de exclusión voluntaria pero es más complicado que en otras empresas y por ello es imprescindible ponerte en contacto con el propio AWS para realizarlo con éxito.

Google: Géminis

Para los usuarios del chatbot de Google, es decir Gemini, no participar en esa cesión de datos es más fácil. Basta con abrir Gemini en el navegador, hacer clic en Actividad y seleccionar el menú desplegable Desactivar. Eso sí, los datos pasados ya seleccionados no se borran.

Grammarly

Grammarly no ofrece un proceso de exclusión voluntaria para las cuentas personales, pero sí para las cuentas comerciales de autoservicio. Puedes desactivarlo, abriendo la configuración de tu cuenta, haciendo clic en la pestaña Configuración de datos y desactivando la opción de Mejora y capacitación del producto.

HubSpot

La herramienta de marketing HubSpot utiliza automáticamente los datos de los clientes para mejorar su modelo de aprendizaje automático. Y no ofrece opción para desactivar el uso de datos para el entrenamiento de IA. Solo es posible mandando un correo electrónico a [email protected] pidiéndolo.

OpenAI: ChatGPT y Dall-E

Desde OpenAi, aseguran, sí ofrecen a los usuarios formas de fácil acceso para controlar sus datos, incluidas herramientas de autoservicio para acceder, exportar y eliminar información personal a través de ChatGPT.

¿Cómo conseguirlo? los usuarios web de ChatGPT sin cuentas deben navegar a Configuración y luego desmarcar Mejorar el modelo para todos. Pero si se tiene una cuenta y se ha iniciado sesión a través de un navegador web, se debe seleccionar: ChatGPT, Configuración, Controles de datos y luego desactivar Historial de chat y capacitación. Si utilizas las aplicaciones móviles de ChatGPT, la ruta debe ser: Configuración, Controles de datos y desactivar Historial de chat y entrenamiento.

Mientras que para el generador de imágenes Dall-E 3 tiene un formulario que permite enviar imágenes para que se eliminen de «futuros conjuntos de datos de entrenamiento». Te pide tu nombre, correo electrónico y si eres el propietario de los derechos de imagen

Perplexity

Perplexity es una startup que utiliza IA para ayudarte a buscar en la web y encontrar respuestas a preguntas. Al igual que todos los demás programas de esta lista, se le permite automáticamente que sus interacciones y datos se utilicen para entrenar aún más la IA de Perplexity. Desactiva esta opción haciendo clic en el nombre de tu cuenta, desplazándote hacia abajo hasta la sección Cuenta y desactivando la opción Retención de datos de IA.

Pero, ¿y si no queremos que nuestros datos se utilicen para entrenar la IA?

Quora

Quora ofrece opciones de exclusión de datos.  Para ello, hay que dirigirse a su web entrar en Configuración, hacer click en Privacidad y desactivar la opción «Permitir que se entrenen modelos de lenguaje grandes en su contenido». A pesar de esta elección, hay algunas publicaciones de Quora que se pueden usar para capacitar a los LLM.

Slack

Los mensajes aleatorios que se usan en el Slack del trabajo también pueden ser utilizados por la empresa para entrenar sus modelos de IA. A pesar de que la empresa no utiliza los datos de los clientes sí usa sus interacciones para mejorar las capacidades de aprendizaje automático del software.

La única forma real de optar por no participar es hacer que el administrador del grupo envíe un correo electrónico a Slack a [email protected]. El mensaje debe tener incluir el asunto «Solicitud de exclusión del modelo global de Slack» e incluir la URL de la empresa

Tumblr

La plataforma de blogs y publicación Tumblr, propiedad de Automattic y que también es propietaria de WordPress, tiene una opción de «evitar que terceros compartan» información y para evitar que lo que publiques se utilice para el entrenamiento de IA.

Si usas la aplicación Tumblr, ve a Cuentas de cuentas, selecciona tu blog, haz clic en el icono de engranaje, selecciona Visibilidad y activa la opción «Evitar que terceros compartan». Las publicaciones explícitas, los blogs eliminados y los que están protegidos por contraseña o son privados, no se comparten con empresas de terceros en ningún caso

WordPress

Al igual que Tumblr, WordPress tiene una opción de «evitar que terceros compartan» lo que en él escribes. Para activar esta opción, debes ir al panel de control de tu sitio web, haz clic en Configuración, General y, a continuación, en Privacidad, selecciona la casilla Evitar el uso compartido por terceros.

 

Deja un comentario

Por favor, introduce tu comentario
Por favor, introduce tu nombre