La inteligencia artificial, según los creadores del popular chatbot ChatGPT, será en diez años más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado.

Sam Altman, el CEO de OpenAI, Greg Brockman, el presidente de OpenAI e Ilya Sutskever, el científico jefe de la empresa, comparan el riesgo de la “superinteligencia” a la de un arma nuclear.

“Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí. Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos”, se lee en el blog de ChatGPT.

Publicidad

La primero que piden los autores es garantizar que el desarrollo de la superinteligencia ocurra de una manera que nos “permita mantener la seguridad y ayudar a la integración fluida de estos sistemas con la sociedad”. Para esto, ellos proponen proyectos gubernamentales o límites para el avance de la inteligencia artificial anualmente.

Además, creen que las empresas que desarrollan inteligencia artificial deben estar sujetas a un nivel extremadamente alto de responsabilidad.

Los usos del ‘chatbot’ en la consulta médica y en la investigación: esto opinan los expertos

En segundo lugar, los creadores de ChatGPT consideran necesario que exista una organización o entidad internacional “que pueda inspeccionar sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad, etc”.

Publicidad

Sin embargo, creen que ciertas decisiones pueden ser tomadas por los países individuales, como hasta qué punto tiene un chatbot libertad para expresarse.

Según los autores, también se necesita la capacidad técnica para hacer que una superinteligencia sea segura. “Esta es una pregunta de investigación abierta en la que nosotros y otros estamos poniendo mucho esfuerzo”, aseguran.

Publicidad

Aunque el desarrollo de la inteligencia artificial conlleve riesgos, el nivel de esos riesgos se siente acorde con otras tecnologías de Internet y los enfoques probables de la sociedad.

Creemos que las personas de todo el mundo deberían decidir democráticamente los límites y valores predeterminados de los sistemas de IA”, dicen los autores, que defienden el avance de OpenAI porque creen que llevará a un mundo mejor y porque piensan que será difícil parar el camino de la superinteligencia. (I)