¿Se están volviendo “conscientes” las tecnologías de inteligencia artificial? Un ingeniero de Google fue suspendido por decir que sí y despertó un debate que está lejos de ser de ciencia ficción.

LaMDA, un programa informático de Google que genera robots que con que conversan (chatbots) “sabe claramente lo que quiere y lo que considera como derechos en tanto que persona”, escribió el ingeniero de Google Blake Lemoine en la plataforma Medium.

En la empresa y en la comunidad científica esta opinión es considerada a veces absurda o, en el mejor de los casos, prematura.

Publicidad

Los programas basados en el aprendizaje automatizado son “formados” a partir de juegos de datos que abordan los conceptos de conciencia o identidad y son entonces capaces de provocar esa ilusión.

“Los programas que acceden a la Internet pueden responder cualquier pregunta” pero eso no los hace creíbles, dice la profesora Susan Schneider, fundadora de un centro de investigación en la Universidad Florida Atlantic.

Pese a sus objeciones a la teoría, Scheiner desaprueba las sanciones de Google contra Lemoine.

Publicidad

Google tiende a “intentar acallar los problemas éticos”, dijo Scheiner. “Precisamos debates públicos sobre estos temas espinosos”, afirmó.

“Cientos de investigadores e ingenieros conversaron con LaMDA y que sepamos nadie formuló esas afirmaciones ni antropofomizó LaMDA como hizo Blake”, dijo Brian Gabriel, portavoz de Google.

Publicidad

Stephen Hawking responde preguntas sobre los peligros de la inteligencia artificial

El poder de la imaginación

Desde Pinocho hasta la película Her, sobre un romance con un chatbot, la idea de una entidad no humana que cobra vida “está presente en nuestro imaginario”, dijo Mark Kingwell, profesor de la universidad de Toronto (Canada)

“Resulta difícil respetar la distancia entre lo que imaginamos como posible y lo que es realmente posible”, sostuvo.

Los sistemas de inteligencia artificial IA) se evaluaron durante mucho tiempo con el test de Turing: Si el evaluador conversa con un ordenador, sin darse cuenta de que no está hablando con una, la máquina ha “aprobado”.

“Pero en 2022 es bastante fácil que una IA lo consiga”, dijo el autor.

Publicidad

“Cuando enfrentamos palabras en una lengua que hablamos (...) creemos percibir lo que generan esas frases”, afirma Emily Bender, experta en lingüística informática.

Los científicos son incluso capaces de dar una personalidad a un programa de IA.

“Podemos hacer, por ejemplo, un IA nervioso” con las conversaciones que podría tener una persona depresiva, explica Shashank Srivastava, profesora de ciencias informáticas de la universidad de Carolina del Norte.

Si además el chatbot está integrado a un robot humanoide con expresiones ultra realistas o si un programa escribe poemas o compone canciones, como ya ocurre, nuestros sentidos biológicos pueden ser fácilmente engañados.

“Nadamos en un revuelo mediático en torno a la IA”, advierte Bender.

“Y se invierte mucho dinero ahí. Así que los empleados de este sector sienten que trabajan en algo importante, algo real, y no forzosamente tienen la distancia necesaria”.

¿La inteligencia artificial es un peligro para la humanidad?

“Futuro de la humanidad”

¿Cómo se podría entonces determinar con exactitud si una entidad artificial se torna sensible y consciente?

“Si logramos reemplazar los tejidos neuronales por chips, sería una señal de que las máquinas potencialmente pueden ser conscientes”, dijo Schneider.

La experta sigue de cerca los avances de Neuralink, una empresa fundada por Elon Musk para fabricar implantes cerebrales con fines médicos pero también para “asegurar el futuro de la humanidad, en tanto que civilización, en relación a la IA”, según dijo el magnate.

Musk, dueño de Tesla y SpaceX, forma parte de quienes tienen la visión de que máquinas todopoderosas puedan tomar el control.

Para Mark Kingwell es a la inversa.

Si un día aparece un ente autónomo, capaz de manejar un lenguaje, desplazarse por sí solo y manifestar preferencias y debilidades “será importante no considerarlo un esclavo (...)y protegerlo”, asegura. (I)