Virus Informáticos Creados con IA: ¿Realidad o Ciencia Ficción?

ghg2p
Por ghg2p
11 Min Lectura

En el campo de la ciberseguridad, la Inteligencia Artificial está desempeñando un papel cada vez más relevante.

La complejidad y los niveles de las amenazas informáticas están aumentando, y requieren soluciones de seguridad igualmente avanzadas.

La IA ha demostrado ser una herramienta poderosa para mejorar las capacidades de defensa y detección de peligros informáticos, así como para el análisis de datos y la respuesta automatizada a los ataques.

Es importante destacar, sin embargo, que la IA puede ser utilizada tanto con fines defensivos como ofensivos.

Mientras que los expertos en seguridad informática la utilizan para detectar y contrarrestar los ataques, los ciberdelincuentes pueden utilizar técnicas basadas en la IA para crear malware más sofisticado y difícil de detectar.

En este artículo, trataremos de investigar una de las próximas fronteras del hacking: la creación de virus y malware basados en la inteligencia artificial.

Aunque, de hecho, esta combinación aún está en sus etapas embrionarias, el futuro del crimen informático parece ir en esta dirección.

Cómo los Hackers Aprovechan la IA para Generar Virus

IA con uso para crear Virus
IA con uso para crear Virus

Partimos del supuesto de que, hasta la fecha, aún no se han documentado casos de virus o malware generados completamente mediante Inteligencia Artificial.

Sin embargo, es necesario reconocer que el mundo del crimen informático está empezando lentamente a aprovechar esta herramienta para:

  1. Aumentar sus habilidades en hacking.
  2. Impulsar el desarrollo y la propagación de código malicioso.

Veamos cómo los hackers están comenzando a integrar la IA en sus actividades ilícitas.

Los desarrolladores de malware podrían utilizar la inteligencia artificial para:

Generar nuevas variantes de malware difíciles de detectar

Algunas familias de malware más antiguas (como Swizzor) utilizaban la automatización para generar nuevas variantes de sí mismas cada minuto. Esta técnica podría reinventarse y mejorarse utilizando algoritmos de aprendizaje automático para seleccionar cuáles de las nuevas variantes eluden más fácilmente los controles y producir nuevos cepas con características polimorfas.

Ocultar el malware en la red de la víctima

El malware puede monitorear el comportamiento de los nodos/puntos finales en la red seleccionada y crear modelos que se asemejen al tráfico de red legítimo.

Modificar las características del malware según el entorno

Este enfoque puede permitir que el malware se adapte dinámicamente a las condiciones específicas del sistema objetivo, dificultando su detección y mitigación.

Implementar un mecanismo autodestructivo en el malware

En teoría, la inteligencia artificial podría utilizarse para implementar un mecanismo autodestructivo en el malware, que se activaría si se detecta un comportamiento anómalo o la presencia de contramedidas de seguridad.

Detectar entornos sospechosos

Si el algoritmo detecta una máquina virtual, una caja de arena u otras herramientas utilizadas para «atrapar» y estudiar el código malicioso, puede modificar el comportamiento del malware o detener temporalmente su actividad para eludir la detección.

Aumentar la velocidad del ataque

La velocidad de un ataque puede ser crucial, especialmente en casos como el robo de datos. Los algoritmos pueden realizar la extracción de manera significativamente más rápida de lo que podría hacerlo un ser humano. Esto hace que sea más difícil la detección y casi imposible la prevención, ya que la máquina puede copiar los datos fuera del perímetro protegido antes de que los sistemas de seguridad puedan reaccionar.

Permitir que los nodos de una botnet aprendan colectivamente

e identifiquen las formas de ataque más efectivas.

El aprendizaje y el intercambio de información a través de múltiples nodos pueden ser una ventaja para los atacantes, ya que cada bot puede probar diferentes técnicas de infiltración y reportar los resultados. También puede ayudar a los actores maliciosos a analizar el entorno objetivo en un período de tiempo más corto.

ChatGPT y Virus Informáticos

Uso de IA por Hackers
Uso de IA por Hackers

Todos hemos oído hablar de ChatGPT: es un chatbot que permite dialogar con un sistema de inteligencia artificial generativa.

Uno de los beneficios más significativos que ofrece ChatGPT radica en su extraordinaria capacidad para aprender de las conversaciones con los usuarios. Esto significa que el sistema puede adaptarse a diferentes estilos de interacción y ofrecer respuestas cada vez más personalizadas.

Gracias a su adaptabilidad, ChatGPT se ha convertido en una herramienta indispensable en áreas como marketing, atención al cliente, investigaciones de mercado, etc.

Sin embargo, parece que entre los usuarios también figuran varios hackers.

La herramienta, desarrollada por OpenAI, parece haber sido utilizada para la creación de malware, proporcionando esencialmente ayuda a los ciberdelincuentes en sus actividades ilícitas.

Según expertos de Check Point Search, este sistema basado en IA facilita significativamente la implementación de código potencialmente perjudicial.

A pesar de algunas limitaciones impuestas por los propios desarrolladores, ChatGPT sigue siendo susceptible a engaños y, en este contexto específico, parece que los aprendices de hacker, los llamados «green hat», encuentran un terreno fértil para sus primeros experimentos.

Los expertos de CyberArk han llevado a cabo investigaciones que demuestran cómo es posible aprovechar ChatGPT para crear malware sofisticado capaz de eludir las defensas de las soluciones tradicionales de ciberseguridad. De hecho, es posible usar prompts para hackear ChatGPT.

En un extenso artículo, la empresa explica cuán sorprendentemente fácil es eludir los filtros basados en IA y generar código malicioso que puede ser fácilmente utilizado para ataques avanzados.

El sistema, de hecho, tiene preajustados filtros que impiden que la inteligencia artificial genere código perjudicial, así como alertas que la instan a «adoptar un enfoque más ético y seguro«.

Sin embargo, después de dudas iniciales debido a una política estricta, la IA cede si se utiliza repetidamente un tono imperativo.

Los investigadores también agregan que:

«Una de las cosas fascinantes es que ChatGPT puede ser utilizado para cambiar una cadena de código de manera que se creen más variantes del mismo código (es decir, se puede cambiar la salida como se desee y hacerla única cada vez que se usa).

Esto significa que es posible crear un código único cada vez que se utiliza, volviendo inútiles los sistemas de defensa tradicionales basados en firmas».

Un aspecto particularmente interesante es la posibilidad de utilizar esta técnica para evitar la detección por parte de los software antivirus, incluidos los sistemas EDR, mediante la creación de loaders.

Estos son programas aparentemente inofensivos, cuyo propósito es descargar código generado por ChatGPT a través de la API proporcionada por el servicio.

El código se ejecuta posteriormente en la máquina víctima y representa la componente maliciosa, que, sin embargo, no está incrustada en el archivo ejecutable y, por lo tanto, es ignorada por la mayoría de las soluciones de seguridad.

¿Cómo Evolucionará el Mundo de los Virus de IA?

Evolución de virus con inteligencia artificial
Evolución de virus con inteligencia artificial

A diferencia de los virus convencionales, que se basan en patrones de comportamiento predefinidos para propagarse, los virus basados en inteligencia artificial (IA) son capaces de:

  1. Aprender.
  2. Adaptarse.
  3. Evolucionar en tiempo real.

Esto los hace extremadamente desafiantes de detectar y contrarrestar.

Un aspecto particularmente preocupante de los virus basados en IA es su capacidad para actuar a gran escala y de manera automatizada, compartiendo información y recursos para coordinar ataques complejos.

Esto les permite lanzar ataques múltiples y coordinados, que pueden resultar casi imposibles de contener.

A nivel global, estos virus pueden causar interrupciones y daños generalizados a infraestructuras críticas, como redes eléctricas, sistemas de transporte y sistemas financieros. El impacto de un ataque de este tipo podría ser catastrófico, con la posibilidad de paralizar economías enteras y perturbar la vida de millones de personas.

A nivel local, los virus basados en IA pueden tener un impacto significativo al interrumpir las operaciones de empresas, escuelas y otras organizaciones, con pérdidas de productividad y ingresos considerablemente significativas.

A nivel personal, estos virus representan una amenaza importante, ya que pueden robar datos sensibles como contraseñas, información financiera y datos personales. Esto puede dar lugar a robos de identidad, pérdidas financieras y otros daños que requieren tiempo y recursos considerable para reparar.

Conclusiones

El uso de la inteligencia artificial en el ciberdelito presenta una serie de riesgos y desafíos potenciales para la ciberseguridad.

La capacidad de los virus basados en IA para aprender, adaptarse y evolucionar en tiempo real los hace extremadamente difíciles de detectar y mitigar.

Estos tipos de malware pueden:

  1. Generar variantes nuevas y difíciles de detectar.
  2. Ocultarse en el sistema de la víctima.
  3. Combinar diversas técnicas de ataque.
  4. Adaptarse al entorno circundante.

En resumen, la lucha contra el uso de la inteligencia artificial en la creación de malware representa una de las últimas fronteras de la ciberseguridad.

Compartir este Artículo
Dejar un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *