Una ráfaga de mensajes de familiares y amigos preocuparon a Rafaella (nombre protegido), joven universitaria, quien atendía a una clase. Sus allegados estaban preocupados: habían visto una serie de publicaciones nuevas en su cuenta de Instagram que les parecieron extrañas.

Dos de ellas invitaban a sus seguidores a seguir a una cuenta en específico, cuya dueña supuestamente había hecho que Rafaella gane mucho dinero invirtiendo en criptomonedas.

Publicidad

La tercera publicación era de una naturaleza más siniestra: era un video deepfake de Rafaella hablando en inglés, invitando a su familia y amigos a invertir en criptomonedas mediante una cuenta que pertenecía a los estafadores detrás de la vulneración de su cuenta.

‘ChatGPT’ es la IA líder en Ecuador con 450.000 búsquedas mensuales promedio en Google, según el reporte ‘Estado digital Ecuador’

Un deepfake es una pieza audiovisual creada usando inteligencia artificial que se alimenta de fotos y videos de una persona con el objetivo de recrear su semejanza, mostrándola haciendo o diciendo cosas que nunca hizo ni dijo.

Aunque su aspecto era bizarro en el video, su boca se movía, así como sus manos y su cabello. La Rafaella falsa incluso tenía expresiones faciales complejas. Sin embargo, según ella, casi nadie creyó que en realidad era ella.

Foto: Captura de pantalla

La última publicación consistía de un video y dos fotos de un auto marca Mercedes Benz que supuestamente había comprado con dinero de criptomonedas.

Publicidad

Nunca pudo recuperar su cuenta, y las publicaciones siguen ahí.

El interior del auto que Rafaella supuestamente había comprado con sus ganancias de su inversión en criptomonedas. Foto: Captura de pantalla

Desde entonces han pasado casi dos años. Rafaella fue víctima de la creación de un video deepfake con su semejanza antes de la explosión en popularidad de aplicaciones de inteligencia artificial como ChatGPT, un generador de texto, y Midjourney, que genera imágenes con órdenes de texto del usuario.

“Habría que revisar qué herramientas tenían a disposición...si en el 2021 esto era posible, imagínate lo que se puede hacer hoy en día”, afirma Juan Caamaño, prompt engineer (ingeniero de réplicas), profesión que se dedica a encontrar las mejores maneras para que una inteligencia artificial dé respuestas pertinentes para el usuario, entrenando a los algoritmos, mejorando su rendimiento.

Con inteligencia artificial se revisa si hay droga en contenedores del puerto de aguas profundas de Posorja

Ya en el 2017, un usuario del sitio web Reddit, que consiste de foros cuyos usuarios forman comunidades alrededor de temas en específico, comenzó a entrenar un algoritmo con pornografía y fotos de actrices famosas para hacer videos deepfake. Los videos fueron compartidos por decenas de miles de usuarios.

Hay herramientas disponibles para detectar contenido generado por inteligencia artificial. La empresa Intel, por ejemplo, ya tiene una herramienta para detectar contenido falso en tiempo real con un 96 % de efectividad según la empresa.

Del lado legislativo, sin embargo, Caamaño no cree que la regulación gubernamental vaya a la misma velocidad que el desarrollo de la tecnología.

“Los gobiernos tendrán que hacer algo más lanzado a poder buscar soluciones y regular la inteligencia artificial, tendrán que tomársela más en serio”, afirma.

El contenido generado por inteligencia artificial también es usado para desinformación política.

Estafas de criptomonedas vulneran cuentas de redes sociales de jóvenes

A diferencia del caso de Rafaella, a Daniela (nombre protegido) no le hicieron un video deepfake, pero igual vulneraron su cuenta de Instagram para intentar estafar a sus seguidores hace un par de meses.

Daniela descargó una película de internet y abrió el archivo en su computadora. En seguida le aparecieron mensajes en su computadora de una aplicación pidiéndole permisos para ejecutar ciertas acciones. Ella solo cerró la computadora y esperó que pasara.

Estaba trabajando cuando su prima la llamó para avisarle que alguien había subido una publicación a su Instagram, la cual tenía abierta en su laptop, sobre criptomonedas.

Resulta que por accidente había aceptado ceder control remoto de su laptop a los criminales, y como la dejó encendida, pudieron vulnerar sus redes.

Inteligencia artificial en la campaña electoral

Un mes después su cuenta de Instagram fue hackeada de nuevo. Alguien había ingresado y cambiado su contraseña. Cuando ya tuvo acceso de nuevo a la cuenta, Daniela se dio cuenta de que no había hecho ningún cambio a su cuenta ni se habían contactado con nadie. La dirección IP de la persona que entró a su cuenta pertenecía a Georgia.

“La persona estaba usando algún controlador remoto, que a veces puede ser usado para cosas buenas como para darle soporte a un equipo”, explica el ingeniero informático Alejandro Varas.

Varas recomienda, además de evitar hacer clic en enlaces mandados por emisores dudosos, intentar llevar un manejo adecuado de las contraseñas.

El primer paso es una contraseña segura, compuesta de una mezcla de caracteres especiales y números. Luego se puede aplicar el proceso de autenticación de dos pasos, que involucra, por ejemplo, el envío de un enlace de ingreso a un número de teléfono.

“La idea es que así como en algunas empresas te exigen tener una disciplina y una formalidad a la hora de gestionar contraseñas, lo mismo debemos hacer en nuestra vida personal”.

Con la inteligencia artificial, el potencial de ser estafado incrementa, según Varas, pues los modelos de generación de contenido falso necesitan muy poco para poder crear algo convincente. (I)