Skip to main content

ChatGPT, la IA pública que salió a finales de noviembre de 2022, ha suscitado preocupaciones legítimas sobre su potencial para amplificar la gravedad y complejidad de la ciberdelincuencia. De hecho, tan pronto como OpenAI anunció su lanzamiento, muchos expertos en seguridad predijeron que solo sería cuestión de tiempo que los atacantes comenzaran a utilizar este chatbot de IA para elaborar malware o incluso aumentar los ataques de phishing.

Y sus sospechas no han tardado en confirmarse, ya que se ha descubierto que los ciberdelincuentes ya han empezado a utilizar esta herramienta basada en el modelo de lenguaje de IA GPT-3 para recrear cepas de malware y perpetrar diferentes tipos de ataques. Los ciberdelincuentes sólo necesitan tener una cuenta en OpenAI, que pueden crear gratuitamente desde su página web, y realizar una consulta.

¿Cómo contribuye ChatGPT a la ciberdelincuencia?

Los atacantes pueden aprovechar la inteligencia artificial generativa de ChatGPT para elaborar actividades maliciosas, entre las que se incluyen:

  • Phishing:

Pueden utilizar el sistema ChatGPT  para automatizar la creación de correos electrónicos únicos de phishing o spoofing, escritos con una gramática perfecta y patrones de habla naturales adaptados a cada objetivo.

  • Robo de identidad:

También pueden usarlo para hacerse pasar por una institución de confianza, gracias a la capacidad de la IA para replicar el tono corporativo y el discurso de un banco u organización, y luego explotar estos mensajes en las redes sociales, SMS o a través de correos electrónicos para obtener información privada y financiera de las personas.

  • Otros ataques de ingeniería social:

Es común crear perfiles falsos en las redes sociales, haciéndolos parecer muy realistas que luego utilizan para engañar a las personas para que hagan clic en enlaces maliciosos o persuadirlas para compartir información personal.

  • Creación de bots maliciosos:

ChatGPT puede utilizarse para crear chatbots, ya que dispone de una API que puede alimentar otros chats. Su interfaz fácil de usar, diseñada para usos benéficos, puede utilizarse para engañar a la gente y realizar estafas.

  • Malware:

ChatGPT puede ayudar a realizar una tarea que normalmente requiere conocimientos de programación de alto nivel: generar código en varios lenguajes de programación.

Las amenazas avanzadas requieren soluciones avanzadas

Las ciberamenazas avanzadas deben afrontarse con soluciones que estén a la altura de las circunstancias. Atlantic, de la mano de WatchGuard, propone la solución WatchGuard EPDR que combina las capacidades de protección de endpoints (EPP) y de detección y respuesta (EDR) en una única solución. Gracias a sus nuevos y emergentes modelos de IA de aprendizaje automático y aprendizaje profundo, WatchGuard EPDR protege frente a amenazas avanzadas, amenazas persistentes avanzadas (APT), malware de día cero, ransomware, phishing, rootkits, vulnerabilidades de memoria y ataques sin malware, además de proporcionar visibilidad completa de endpoints y servidores y monitorizar y detectar actividades maliciosas que pueden evadir la mayoría de las soluciones antivirus tradicionales.

También supervisa continuamente todas las aplicaciones y detecta comportamientos maliciosos, incluso si proceden de aplicaciones legítimas. También es capaz de orquestar una respuesta automatizada y, a su vez, proporcionar la información forense necesaria para investigar a fondo cada intento de ataque mediante indicadores avanzados de ataque (IoA).

En definitiva, la innovación de una herramienta como ChatGPT puede ser positiva para el mundo y cambiar los paradigmas actuales, pero también puede hacer mucho daño si cae en las manos equivocadas. Contar con la solución de ciberseguridad adecuada puede evitar que el lado negativo de herramientas prometedoras como ésta llegue a su organización a través del mal uso que los malos actores puedan hacer de ellas.