Uno de los trucos más antiguos de los hackers es manipular a sus víctimas para que les den información personal o para que instale en sus dispositivos un malware que también permita acceder a datos sensibles.

Para lograr este objetivo, los criminales cibernéticos abordan a sus víctimas por medio de un correo electrónico, mensajes de texto o mensajes a través de redes sociales que tengan un enlace contaminado con un virus generalmente diseñado para adueñarse de información personal a través de la modalidad de phishing.

Sin embargo, estos ciberdelincuentes están siembre buscando nuevas maneras de afectar a los ciudadanos, por lo que actualmente están utilizando inteligencia artificial para lograr sus objetivos.

Algunas de estas herramientas son GenAI o inteligencia artificial generativa, que se caracteriza por crear contenidos como textos o imágenes a través de patrones de datos.

Las cifras de ciberataques son preocupantes. | Foto: El País

Según la empresa de seguridad Eset Latinoamérica, estos delincuentes ya han logrado engañar al chatbot Grok de X (antes Twitter), para que difunda links de phishing.

Debido a que X no permite que se incluyan enlaces promocionados en la red social para evitar la publicidad maliciosa a través de videos, los criminales han comenzado a disfrazar comandos legítimos, pero que incluyen un enlace on virus en campo «from» debajo del video, y preguntan a Grok de dónde viene dicho contenido.

Grok lee el mensaje, detecta el pequeño enlace y lo amplifica en su respuesta, dándole una falsa sensación de legitimidad, al ser replicado por la misma cuenta verificada del chatbot”, se explicó desde Eset.

Los ciberdelincuentes están usando inteligencia artificial como Grok, de X, para difundir sus mensajes maliciosos. | Foto: Suministrada por Eset Latinoamérica

Nuevas técnicas para afectar a los usuarios

Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de Eset Latinoamérica, indicó que “este caso no es solo un problema de X/Grok. Las mismas técnicas podrían aplicarse teóricamente a cualquier herramienta GenAI/LLM integrada en una plataforma de confianza”.

El experto agregó que lo anterior deja ver el ingenio de los delincuentes para encontrar la manera de evitar los mecanismos de seguridad, por ello los ciudadanos deben tener en cuenta que también existen riesgos al confiar en los resultados de la IA.

Según el especialista, esta estrategia es especialmente peligrosa por estos motivos:

  • Las publicaciones de videos pagadas pueden llegar a millones de personas, lo que puede reproducir estafas y malware.
  • Ya que Grok es una fuente considerada confiable, es posible que los enlaces se amplifiquen en SEO y reputación de dominio.
  • Los enlaces pueden redirigir a formularios maliciosos para robo de información personal sensible.
Estos solo son algunos de los peligros a los que los usuarios se enfrentan. | Foto: Semana

Por ello, Gutiérrez aseguró que “la IA es un potenciador de la ingeniería social en dos sentidos. Por un lado, los grandes modelos lingüísticos pueden ser usados para el diseño de campañas de phishing muy convincentes a gran escala, con audios y videos falsos que logran engaños más verídicos que pueden llegar al usuario más escéptico”.

Cabe mencionar que, de acuerdo con un análisis de Gartner, estos ataques han aumentado ya que el 32 % de las empresas experimentaron un hecho de estas características en 2024.

“Las herramientas de IA integradas han abierto un nuevo frente en la larga guerra contra el phishing. Asegúrese de no caer en la trampa, cuestione siempre y nunca dé por sentado que tiene las respuestas correctas”, puntualizó el investigador de Eset.