Las noticias falsas (o fake news) no son algo nuevo o moderno. Los investigadores afirman que la desinformación y la propaganda «han sido características de la comunicación humana desde al menos los tiempos romanos», y citan como la primera fake news de la historia contemporánea una publicación que apareció en el periódico neoyorquino The Sun en 1835, la cual informaba de seres que habitaban la Luna, como explica el historiador Carlos Salas.
Si avanzamos hasta nuestros días, no hay duda de que las fake news tienen un aspecto muy diferente, pero sobre todo, se propagan a velocidades nunca vistas. Ahora, con la llegada masiva de la inteligencia artificial y de las herramientas generativas al alcance de todos, son muchas las preguntas acerca del impacto que va a tener la IA y herramientas tan populares como ChatGPT en las fake news.
«Desde que salió a escena en noviembre de 2022, es difícil ignorar ChatGPT», apunta Alfonso Díez Cobo, Senior Sales Engineer de Commvault, señalando la capacidad que tiene esta herramienta para resolver problemas y crear contenidos, por lo que puede ser sin duda beneficiosa para «ayudar a reducir costes y ahorrar tiempo y recursos».
Sin embargo, explica Díez, «el uso de ChatGPT ha suscitado mucho debate y controversia». El impacto en el empleo es uno de esos debates. Y otro es precisamente la generación de noticias falsas.
«La genialidad y la desventaja de ChatGPT es que no funciona como un motor de búsqueda. Aunque el proceso inicial es el mismo: recopilar información de una base de datos», observa el experto de Commvault.
Y es que ChatGPT es capaz de crear respuestas, y esto lo hace mediante «una serie de conjeturas basadas en la información que encuentra, en lugar de transmitirla exactamente como la encuentra, como haría un motor de búsqueda».
Ciertamente, las respuestas que genera esta herramienta parecen precisas, aunque no siempre lo son. Hay fuentes que apuntan a que la tasa de precisión es del 99%.
Sin embargo, «¿cómo podemos estar seguros de que son correctas? Al fin y al cabo, si has preguntado a ChatGPT, lo más probable es que sea porque tú mismo no conoces la respuesta», se pregunta Alfonso Díez.
El problema radica en que las conjeturas que hace ChatGPT para crear una respuesta conversacional (en la que parece que te estás comunicando con otra persona) puede ser o bien malinterpretada o bien mal comunicada por parte de la herramienta de IA.
«ChatGPT aún no está en condiciones de comprender la complejidad del lenguaje el 100% de las veces. Por lo tanto, corremos el riesgo de caer en errores», explica el experto, añadiendo que «algunos de estos errores pueden ser detectados fácilmente, pero hay otros que quizá no sean tan obvios y que lleven a equivocación, sobre todo si el usuario no tiene conocimiento sobre el tema».
«Por esta razón», continúa, «la respuesta puede parecer correcta y, por lo tanto, se toma como un hecho. Si luego se publica en Internet o se utiliza en un trabajo académico, se consolidará como un hecho», contribuyendo a las noticias falsas que actualmente constituyen el 62% de toda la información de Internet».
La proporción de noticias falsas en internet: fuente de problemas
Precisamente es esta enorme cantidad de noticias falsas de las que la IA se puede nutrir una de la fuente de problemas, sobre todo cuando se trata de que ChatGPT obtenga la información necesaria para responder a una pregunta.
«Si más de la mitad de la información de Internet es falsa», explica Díez, «es muy probable que ChatGPT consuma esas fuentes a la hora de recopilar los datos para responder a tu pregunta. Por lo tanto, incluso si interpreta la información correctamente, puede proporcionar una respuesta falsa».
En la práctica, esto está haciendo que surjan preocupaciones en empresas y países sobre el uso de ChatGPT, incluso mediante bloqueos y prohibiciones. «Esto no es necesariamente lo mejor», señala Alfonso Díez. «Con un poco de experiencia adicional aplicada para comprobar la información que ha proporcionado, ChatGPT puede beneficiar a las empresas, especialmente en el clima económico actual en el que todo el mundo tiene que hacer más con menos. ChatGPT puede aliviar parte de la carga aportando ideas creativas o asumiendo las tareas manuales y repetitivas que tanto tiempo consumen».
El experto prefiere considerarlo como un «compañero de trabajo IA». «Incluso una vez que la IA haya sido entrenada a un nivel superior», señala Díez, «es poco probable que, sin la capacidad de razonar, un chatbot u otra tecnología de automatización sea capaz de completar tareas de alto nivel para justificar la sustitución completa de los humanos».