Hubo un tiempo cuando usted escogía las canciones que escuchaba, los textos que leía o las películas que veía.

Hoy, usted ha cedido esa decisión a Spotify, Facebook o Netflix.

En realidad, algo más –un algoritmo– toma decisiones por usted. ¿Algo, no alguien?

Publicidad

Para Joanna Stern (columnista de tecnología en The Wall Street Journal), el control de nuestras decisiones lo tienen las grandes empresas de redes sociales desde el 2016. Cuando Twitter e Instagram se unieron a Facebook y YouTube para construir un futuro algorítmico.

Las secuencias robotizadas se programaron para mantener cautiva nuestra atención. Para poder monetizar los contenidos. ¿Y qué más cautivador que las historias incendiarias, fake news, o teorías conspirativas?

¿Culpa de la inteligencia artificial o de personas malintencionadas?

Publicidad

Mark Weinstein, fundador de la red social MeWe, cree que hay que eliminar la monetización de los feeds. Así, sostiene, se “desmantela la idea de la amplificación disruptiva y escandalosa” de las historias.

Más allá de la causa, ¿qué pasa con las consecuencias? ¿qué pasa con sus decisiones? ¿qué pasa con la realidad que usted conoce?

Publicidad

La realidad se convierte en una versión personalizada del mundo circundante que es sostenida, artificialmente, en una burbuja de gente que piensa igual y que usted encuentra en redes… porque las redes los ponen en contacto. Y esta burbuja epistémica lo lleva a vivir un constante sesgo de confirmación.

Usted cree que toma sus decisiones, pero ¿es parte de la gran ilusión dónde vive?

Cuando ve películas en Netflix, el algoritmo calcula la probabilidad de su interés en géneros y temas. Así, el “sistema de recomendaciones” va creando su perfil. Por cierto, las platafomas de streaming saben más de usted que usted mismo.

¿Skynet –la computadora de Terminator– ya tomó conciencia?

Publicidad

¿Los robots y las computadoras han tomado el poder de lo que usted ve, lee, escucha? ¿También de lo que usted piensa?

Las decisiones políticas que usted toma, ¿quién las toma?

Las emociones que siente –a favor y en contra– por una candidatura, ¿son espontáneas? ¿o son inducidas por un algoritmo que creó un contexto particular para usted?

Construir un encuadre (framing, en la teoría de Lakoff) que provoque miedo disminuye el acercamiento tecnocrático –de información cuantitativa– e incrementa el acercamiento populista –de información emocional–.

Por ejemplo, el miedo a un fraude. Imagine que su candidato es acusado de hacer fraude. Usted ¿busca la información instrumental, la analiza fríamente, y decide… o directamente pone un mensaje en su timeline repitiendo –en mayúsculas– la historia que usted cree?

Al final, ¿los algoritmos deciden lo que usted ve, lee, escucha? ¿o también lo que usted piensa? (O)