Es difícil tener una discusión sobre tecnología en la actualidad y no incorporar el tema de la inteligencia artificial. Que si es peligrosa, que si representa el fin de la humanidad como la conocemos, que implica un salto significativo en la evolución de la sociedad, etc.

Y lo cierto es que cuando ChatGPT de OpenAI se lanzó al público en general a fines de noviembre del año pasado, una sacudida atravesó la sociedad global, ya que ninguna aplicación en la historia observó un crecimiento de un millón de usuarios registrados cinco días después de su presentación y, después de un mes, el chatbot rompió la marca de 100 millones.

Para los representantes de la empresa tecnológica Tanium, el entusiasmo desenfrenado por los productos de las aplicaciones de IA pronto se vio empañado por la preocupación sobre su impacto en la sociedad: el manejo acrítico de los resultados, algunos de los cuales son alucinaciones, es tan preocupante como las preguntas sobre sus cualidades disruptivas para el sistema educativo, el peligro de las campañas de desinformación escalables y gratuitas, el acceso de bajo espectro al código malicioso y, finalmente, sobre el cumplimiento y los derechos de autor que están aún sin resolver.

Publicidad

Mario Micucci, investigador de seguridad de la empresa ESET para Latinoamérica, asegura que lo primero es diferenciar entre inteligencia artificial y machine learning. “Desde los medios o desde la mercadotecnia se habla de inteligencia artificial como un todo. Y lo cierto es que la inteligencia artificial todavía es de ciencia ficción, porque la inteligencia artificial es esa emulación del comportamiento humano”, agrega el experto.

Entonces, ¿cuáles son estos principales riesgos que tiene la inteligencia artificial en cuanto a ciberseguridad?

Los riesgos son diversos y en distintas direcciones. Para el experto es importante establecer que hoy, en realidad, lo que estamos muy vivenciando es el machine learning, que es solo una rama de la inteligencia artificial.

Publicidad

Así, los riesgos están en la posibilidad de vulnerar los algoritmos. Usar el machine learning para manipular los resultados de un sistema. “No hay que olvidarse que cada vez que se desarrolla un sistema que estaba basado en machine learning, es decir, en aprendizaje automático, hay que enseñarle a tomar decisión, decisiones a partir de una cantidad de datos”, explica Micucci.

En ese sentido, es un problema si hay alguien que altera ese entrenamiento de los datos, lo que puede llegar a significar un problema en la calidad y la integridad de los datos que se están utilizando y, por consiguiente, un resultado poco favorable que puede generar riesgos.

Publicidad

Por el otro lado, en un nivel más general, está más orientado al usuario final. “Adversarios que aprovechan los sistemas de inteligencia artificial basados en machine learning, como, por ejemplo, nosotros podemos agarrar y decirle a ChatGPT: ‘Bueno, quiero crear un malware de tales características’. Entonces basta nomás con poner esta instrucción para crear el malware. Esto representa una agilidad a la hora de crear malware y códigos maliciosos que antes no existía”, concluye el experto de ESET.

Regular e involucrar a expertos

Países como Italia y China han tratado de restringir el uso de ChatGPT, siendo ejemplos iniciales de enfoques regulatorios aún complicados porque ni siquiera los principales desarrolladores de IA de OpenAI y Google pueden comprender (o no quieren revelar) los detalles de cómo se crean los resultados de sus modelos generativos de IA, situación que se debería tomar como una señal de advertencia.

Para la empresa Tanium, a los ojos de inversores y desarrolladores, está en juego nada menos que el modelo de desarrollo más grande en la historia humana, con la promesa de una creación de valor automatizada casi ilimitada, saltos cuánticos en la ciencia y el consiguiente aumento de prosperidad para toda la humanidad.

No obstante, al mismo tiempo, solo un puñado de investigadores en todo el mundo se ocupa de las disciplinas de seguridad de la IA que serían, como primera disciplina, la interpretabilidad, que se ocupa de desarrollar una comprensión profunda de cómo se producen los resultados respectivos de los diversos modelos de IA. Solo con la ayuda de esta comprensión se puede predecir el comportamiento futuro de la IA y evitar resultados dañinos.

Publicidad

Pero no todo es negativo, la segunda disciplina de la seguridad de la IA es la investigación de alineación, que tiene como objetivo equipar los modelos y agentes de IA actuales (débiles) y futuros (fuertes) con los valores centrales y fundamentales de la humanidad e integrarlos en su esencia.

Así como se mencionaba que un ciberatacante puede utilizar IA para crear un malware, también un analista puede utilizar esta herramienta para analizar un software maligno. Es decir, puede enviar una muestra de código malicioso y hacer que la analice y encuentre los indicadores de compromiso. Entonces, un trabajo que al analista le lleva muchas horas de ingeniería inversa y de trabajo intelectual lo realiza una máquina en menor tiempo.

“Básicamente estamos hablando de una revolución tecnológica más”, dice Mario Micucci y agrega: “En la historia ya hemos vivido revoluciones tecnológicas parecidas. Es decir, en algún momento el cajero automático que hoy utilizamos para sacar dinero con nuestra tarjeta fue una persona. Sin embargo, esas personas que cumplían ese rol migraron hacia otro tipo de puestos que tienen que ver con saber operar sistemas”. (I)