GOBIERNO DE CALIDAD /Peligros de la IA generativa

Por Jorge Manrique, Rector del Colegio Jurista y director general de Gobierno de Calidad, consultoría de políticas públicas

La IA generativa es una tecnología que conlleva riesgos que deben abordarse, particularmente en el ámbito de la ciberseguridad.

El malware avanzado y las técnicas de evasión, el phishing, la ingeniería social y la suplantación, la ingeniería inversa y la elusión de las herramientas CAPTCHA, son algunas de las amenazas creadas por la IA generativa.

Para abordar las crecientes amenazas de los métodos generativos impulsados por la IA, la industria de la ciberseguridad debe evolucionar y adaptar sus estrategias.

Esta es la historia:

La inteligencia artificial generativa (IA) genera numerosas posibilidades en diversas industrias. Este tipo de IA puede producir contenido nuevo como texto, imágenes, música, sonidos y videos. Los modelos de aprendizaje automático se entrenan en conjuntos de datos masivos para aprender patrones, estructuras y relaciones y logran resultados que se asemejan al contenido original.

La serie GPT de OpenAI es un ejemplo  de IA generativa, que demuestra capacidades impresionantes en la producción de texto e interacciones similares a las humanas. Esta tecnología, sin embargo, también conlleva riesgos que deben abordarse, particularmente en el ámbito de la ciberseguridad. Aquí, exploro algunos escenarios de amenaza potenciales que la IA y la IA generativa pueden presentar a la ciberseguridad.

Puede desarrollar malware avanzado que es difícil de detectar utilizando medidas de seguridad tradicionales. Esto al ser más sofisticado que el  generado por humanos, ya que puede adaptarse rápidamente a diferentes objetivos y entornos. Esta adaptabilidad hace que sea difícil de detectar y neutralizar en tiempo real.

Las técnicas avanzadas de evasión que utilizan el aprendizaje automático para reconocer y eludir los sistemas de seguridad representan otra amenaza importante. Estas técnicas incluyen malware polimórfico, que cambia constantemente su código para evitar la detección basada en firmas, y malware metamórfico, que altera su estructura sin afectar su funcionalidad. Se deben hacer esfuerzos para garantizar el uso responsable de la IA y proteger contra las aplicaciones maliciosas.

Asimismo, los ataques de phishing, que engañan a los usuarios para que hagan clic en enlaces maliciosos o proporcionen información confidencial, también podrían beneficiarse de la IA generativa. Al generar correos electrónicos convincentes o mensajes que imitan de cerca las comunicaciones legítimas, los atacantes pueden aumentar sus posibilidades de éxito.

Asimismo, los ataques de ingeniería social, que dependen de las interacciones humanas y la manipulación para obtener acceso no autorizado a la información o los sistemas, también podrían hacerse más efectivos utilizando la IA generativa. Los atacantes pueden crear mensajes altamente convincentes y personalizados que pueden eludir los filtros de seguridad y engañar incluso a los usuarios vigilantes.

La tecnología deepfake, por ejemplo, se puede utilizar para generar contenido realista de video o audio que se hace pasar por personas de confianza, lo que podría ser particularmente efectivo en ataques de spear-phishing.

Por otra parte, la IA generativa también puede facilitar la creación de perfiles falsos en las redes sociales, lo que facilita a los atacantes hacerse pasar por usuarios legítimos y ganar confianza. Estos perfiles falsos se pueden utilizar para recopilar inteligencia, difundir información errónea o lanzar ataques dirigidos, lo que representa una amenaza para individuos y organizaciones.

Otra posibilidad de ciberataques se da con la ingeniería inversa, que implica desmontar y analizar software o hardware para comprender su funcionalidad, diseño e implementación. Este conocimiento se puede utilizar para diversos propósitos, incluida la mejora de los sistemas existentes, la identificación de vulnerabilidades y el desarrollo de nuevas tecnologías.

La IA generativa puede afectar la ingeniería inversa al automatizar el proceso y producir resultados de alta calidad rápidamente. Esto puede ser beneficioso y perjudicial. Puede ayudar a los investigadores de seguridad a identificar y mitigar vulnerabilidades, pero también ayuda a los actores maliciosos a descubrir y explotar las debilidades en los sistemas de software y hardware. Al aprovechar la IA generativa, los atacantes pueden analizar y modificar el malware existente para crear variantes nuevas y más potentes que pueden evadir las estrategias de detección y mitigación.

Además, la IA generativa se puede utilizar para crear exploits personalizados adaptados a vulnerabilidades y objetivos específicos, haciéndolos más efectivos y difíciles de defender.

Entradas relacionadas