Los ciberdelincuentes están utilizando ChatGPT para crear chatbots falsos, campañas de phishing y malware.

Según ha publicado Norton en su informe trimestral ‘Consumer Cyber Pulse Report’, los ciberdelincuentes pueden hacer uso de la Inteligencia Artificial (IA) para crear amenazas realistas y sofisticadas. Así lo constatan después de analizar cómo los grandes modelos de lenguaje pueden mejorar las tácticas que utilizan los cibercriminales.

Sin duda, la popularidad que ha alcanzado ChatGPT en los últimos meses con alrededor de 100 millones de usuarios diarios que lo utilizan para responder preguntas, pedir consejos, escribir poemas, y otras muchas opciones.

Los ciberdelincuentes, siempre ojo avizor a las novedades que captan la atención de los usuarios, están utilizando este chatbot inteligente para generar amenazas aprovechando su capacidad para generar texto como lo haría un humano con una alta personalización.

De esta forma, los ciberdelincuentes pueden crear rápida y fácilmente señuelos para llevar a cabo ataques de phishing a través del correo electrónico o las redes sociales. Esto hace que sea más difícil distinguir qué es legítimo y qué es una amenaza.

Además de para generar ganchos para llevar a cabo ciberataques, ChatGPT también puede generar código. Si bien, inicialmente, esta capacidad supuso un gran avance a la hora de facilitar la vida a los desarrolladores, poco a poco, su percepción ha sido menos positiva. Y es que esta capacidad para escribir y traducir el código fuente, también puede facilitar la vida de los ciberdelincuentes al hacer que las estafas sean más rápidas de crear y más difíciles de detectar.

«Sabemos que los ciberdelincuentes se adaptan rápidamente a la última tecnología, y estamos viendo que ChatGPT se puede usar para crear amenazas convincentes rápida y fácilmente», destaca Kevin Roundy, director técnico sénior de Norton.

Evitar las amenazas creadas con ChatGPT

Esta sofisticación hace que cada vez sea más difícil detectar estafas para las personas, por lo que necesitan soluciones de ciberseguridad que analicen más aspectos de las vidas digitales, desde los dispositivos móviles hasta la identidad online de los usuarios.

Además de utilizar ChatGPT para un phishing más eficiente, los expertos de Norton advierten que los delincuentes también pueden usarlo para crear chatbots falsos. Estos chatbots pueden hacerse pasar por humanos o fuentes legítimas, como un banco o una entidad gubernamental, para manipular a las víctimas y que entreguen su información personal para conseguir acceso a información confidencial, robar dinero o cometer fraudes.

Para protegerse de estas amenazas, los expertos de Norton recomiendan tres cuestiones clave a tener muy en cuenta:

  • Evite los chatbots que no aparecen en el sitio web o la aplicación de una empresa, y tener cuidado al proporcionar información personal al chatear online.
  • Pensar antes de hacer clic en enlaces en respuesta a llamadas telefónicas, correos electrónicos o mensajes no solicitados.
  • Actualizar las soluciones de seguridad y asegurarse de tener toda una serie de capas de seguridad que vayan más allá del reconocimiento de malware ya conocido, como la detección y el bloqueo de comportamiento.

El pasado año, Norton bloqueó más de 3.500 millones de amenazas, lo que supone alrededor de 9,6 millones de amenazas diarias. En concreto, 90,9 millones fueron intentos de phishing, 260,4 millones de amenazas de archivos, 1,6 millones de amenazas móviles, 274.000 ataques de ransomware.

Solo en el último trimestre, Norton bloqueó más de 787,7 millones de amenazas, o alrededor de 8,5 millones de amenazas diarias.

Deja un comentario

Por favor, introduce tu comentario
Por favor, introduce tu nombre

2 × dos =