En una serie de publicaciones recientes en la red Threads, Adam Mosseri, CEO de Instagram, ha emitido una advertencia clara: los usuarios de redes sociales deben estar atentos al creciente uso de contenido generado por inteligencia artificial (IA), que está dificultando la distinción entre lo real y lo engañoso. Este mensaje llega en un momento en que las plataformas digitales enfrentan retos significativos para garantizar la autenticidad de la información que circula entre sus usuarios.
El auge de las tecnologías de IA en Instagram y otras redes sociales ha facilitado la creación de contenido hiperrealista, desde imágenes hasta videos y textos, lo que está generando una avalancha de publicaciones que a menudo engañan a los usuarios. “Cada vez más personas están cayendo en publicaciones falsas, creyendo que son reales”, ha declarado Mosseri.
La problemática está en la velocidad con la que este tipo de contenido se viraliza, dejando poco espacio para la verificación. Las imágenes generadas por IA no solo son más fáciles de crear, sino también de distribuir. Esto ha llevado a una situación en la que distinguir entre hechos y ficción se convierte en un desafío para el usuario medio.
La respuesta de Instagram: etiquetas de contenido generado por IA
Como parte de su estrategia para abordar este problema, Mosseri anunció que Instagram está trabajando en un sistema de etiquetado que identificará contenido creado con herramientas de IA. Esta iniciativa busca brindar mayor transparencia y ayudar a los usuarios a identificar publicaciones potencialmente engañosas.
Sin embargo, el CEO advirtió que estas etiquetas podrían no ser la solución total. “Es probable que algunas publicaciones escapen de estos filtros”, explicó. Por ello, hizo hincapié en la importancia de que los usuarios verifiquen el origen de la información y consideren la reputación de las cuentas que la comparten. “Proveer contexto adicional puede ser crucial para determinar cuánto se puede confiar en una fuente”, añadió.
El creciente uso de herramientas de IA plantea preguntas sobre cómo las plataformas digitales pueden equilibrar la innovación con la necesidad de proteger a sus usuarios. Aunque las etiquetas y los sistemas de verificación son pasos en la dirección correcta, no son una solución definitiva.
Funciones similares a otras plataformas
La descripción de Mosseri sobre los cambios planeados en Instagram recuerda a funciones similares en otras plataformas, como las Community Notes de X (antes Twitter) o los filtros de moderación personalizados de Bluesky. Estas herramientas buscan proporcionar a los usuarios información contextual adicional que les permita evaluar mejor la credibilidad del contenido.
A pesar de estos avances, Instagram aún no ofrece un nivel de autenticación comparable al de otras redes. Según Mosseri, la compañía está trabajando en nuevas políticas de contenido que podrían implementar mayores salvaguardas en un futuro cercano. Sin embargo, aún no se han revelado detalles específicos sobre cómo o cuándo se desplegarán estas medidas.
Los riesgos de confiar en sistemas de IA
En su advertencia, Mosseri también destacó que no solo las redes sociales son susceptibles al contenido falso generado por IA, sino también otras herramientas tecnológicas como los motores de búsqueda impulsados por IA y los chatbots. “Estos sistemas pueden mentirte descaradamente”, alertó.
El ejecutivo recomendó a los usuarios ser escépticos y verificar siempre las fuentes de información antes de considerarlas verídicas. Según él, una forma eficaz de combatir el engaño es confiar en cuentas verificadas o en aquellas que tengan un historial reconocido de credibilidad.
El CEO ha destacado la importancia del papel de los usuarios “Al final, la responsabilidad recae también en cada persona para evaluar cuidadosamente el contenido que consume y comparte”, declaró. En un entorno digital donde la desinformación puede tener consecuencias graves, la educación y la concienciación son herramientas esenciales.