El debate presidencial abordó temas de la inteligencia artificial (IA) como herramienta de cogobierno. Pero ¿qué representa la IA? Ha emergido como un motor transformador en la sociedad moderna, prometiendo mejorar la eficiencia, optimizar procesos y ofrecer soluciones innovadoras a problemas complejos. No obstante, su poder y alcance también han generado preocupaciones en torno a su impacto en derechos fundamentales, privacidad, seguridad y equidad. En este contexto, se hace crucial la creación de un conjunto de normativas que regulen eficazmente el desarrollo y uso de la IA, asegurando que sus beneficios sean accesibles para todos, mientras se mitigan proporcionalmente sus riesgos. En un país en donde no se tiene dominio de la racionalidad de los gobernantes, el impacto de la IA en decisiones trascendentales, como las judiciales, pude tener un efecto adverso. Esto no implica que sea mala, pero sí que deba regularse desde un inicio. El marco regulador para la inteligencia artificial debe basarse en un enfoque de gestión de riesgos claramente definido. Este enfoque reconoce que no todos los sistemas de IA presentan el mismo nivel de riesgo, por lo que no deben estar sujetos a las mismas reglas o requisitos. Al igual que ocurre con otras tecnologías, la regulación de la IA debe ser flexible y adaptativa, capaz de abordar la diversidad y complejidad de estos sistemas y su impacto en distintos contextos.

Además, los sistemas de IA de alto riesgo deben cumplir con obligaciones de transparencia que permitan a los usuarios y a las personas que los utilizan entender su funcionamiento y cómo se toman las decisiones automatizadas. La transparencia es un principio esencial en la regulación que debe implementarse, ya que brinda a los individuos la capacidad de tomar decisiones informadas sobre su interacción con estos sistemas y, cuando sea necesario, cuestionar las decisiones que puedan afectarlos. La implementación de normativas también debe ir acompañada de un esfuerzo continuo de Gobiernos, empresas y la sociedad civil para educar y capacitar a las personas sobre el uso y sus implicaciones. La alfabetización es crucial para asegurar que todos los sectores de la sociedad puedan aprovechar estas tecnologías de manera equitativa y estar preparados para enfrentar los desafíos que surjan en un mundo cada vez más dominado por la IA.

Además de la alfabetización, es fundamental fomentar una cultura de responsabilidad y ética en el desarrollo y uso de estas tecnologías. Los desarrolladores, operadores y usuarios de sistemas de IA deben ser conscientes de las implicaciones éticas de sus decisiones y comprometerse con la creación de una IA que respete los derechos humanos y promueva el bienestar social. Este compromiso exige una formación continua y la integración de principios éticos en todas las fases del desarrollo y despliegue de la IA. Para esto se deben definir las capacidades del desarrollo local y a la vez invertir en que el país sea capaz de desarrollarla, para no caer en la contratación de empresas que solo las provean y así generar recursos para el país y que no se fuguen al extranjero. (O)