Las posibilidades que ofrece ChatGPT son muchas. Sin embargo, este chatbot de Inteligencia Artificial ya empieza a generar suspicacias ante el riesgo de que pueda utilizarse con fines maliciosos.

Según un estudio realizado por BlackBerry entre 500 responsables de la toma de decisiones TI en Reino Unido señala que la mayoría cree que los estados extranjeros usan ChatGPT con fines maliciosos contra otras naciones.

Si bien el 60% considera que ChatGPT generalmente se usa para «buenos» propósitos, el 72% está preocupado por su potencial para ser utilizado con fines maliciosos cuando se trata de ciberseguridad.

De hecho, casi la mitad de los encuestados, el 48%, prevé que, en los próximos doce meses se producirá un ciberataque que se atribuible a esta tecnología. Este pronóstico se suma a una reciente investigación en la que se ponía de manifiesto cómo actores maliciosos pueden usar ChatGPT para mejorar significativamente las estafas de phishing y comprometer el correo electrónico empresarial (BEC).

Esto ha elevado el temor de los responsables de TI, que temen la explotación maliciosa de las capacidades de ChatGPT.

Y es que este chatbot gratuito de OpenAI basado en GPT-3.5 y que se lanzó el pasado 30 de noviembre consiguió un millón de usuarios en solo cinco días. Sus capacidades para escribir correos electrónicos y códigos de programación, entre otras muchas posibilidades, pueden servir para crear correos electrónicos de phishing más creíbles y que parezcan legítimos.

Para el 57% de los responsables de TI del Reino Unido se ha convertido en una nueva preocupación. Además, para el 51%, el hecho de que pueda incrementar la sofisticación de los ataques y que, como señala el 49%, pueda acelerar nuevos ataques de ingeniería social, se erigen en dos cuestiones clave.

Cómo puede contribuir ChatGPT a las ciberamenazas

Otro aspecto en el que pone énfasis el citado estudio es que casi la mitad de los directores de TI del Reino Unido están preocupados por el potencial de ChatGPT para difundir información errónea, así como por sus capacidades para permitir que los ciberdelincuentes menos experimentados mejoren sus conocimientos técnicos.

Asimismo, para el 88% de los encuestados, los gobiernos tienen la responsabilidad de regular las tecnologías avanzadas como ChatGPT.

Para Shishir Singh, CTO de ciberseguridad en BlackBerry, pese al alarmismo que se está generando hay que pensar que «se pueden obtener muchos beneficios de este tipo de tecnología avanzada y solo estamos comenzando a arañar la superficie, pero tampoco podemos ignorar las ramificaciones».

En enero, los investigadores de la firma de seguridad WithSecure demostraron cómo el modelo de generación de lenguaje natural GPT-3 se puede usar para que los ataques de ingeniería social, sean más difíciles de detectar y más fáciles de llevar a cabo.

De acuerdo con este estudio reveló, los atacantes no solo pueden generar variaciones únicas del mismo señuelo de phishing con texto escrito gramaticalmente correcto y similar al humano. ChatGPT también pueden construir cadenas de correo electrónico completas para hacer que los emails sean más convincentes e incluso pueden generar mensajes utilizando el estilo de escritura real.

La generación de texto versátil en lenguaje natural llegará a que los ciberdelincuentes pongan sus miras en ChatGPT, si es que no lo han hecho ya.

Deja un comentario

Por favor, introduce tu comentario
Por favor, introduce tu nombre