El derecho a saber el porqué

En la campaña electoral al parlamento español, Whatsapp cerró las cuentas de varios partidos políticos. Es una noticia que pasó un poco desapercibida. Al principio parecía que sólo afectaba a Podemos y después vimos que las cuentas de PP y PSOE también se inactivaban.

Al leer esto sentí una curiosa liberación. Desde hacía unos meses, el algoritmo de Facebook me impedía hacer publicidad en una página. Nadie en la red social era capaz de explicarme ni qué pasaba, ni cómo solucionarlo. Por un lado me frustraba porque, como profesional del tema, me sentía obligado a entender el algoritmo y, por otro lado, sospechaba que si tuviese mejores contactos en Facebook, lo podría solucionar.

Dicen que mal de muchos, consuelo de tontos. Pero la impotencia de los grandes partidos políticos, me animaban a pensar que no es que yo fuese un mindundi, sino que los algoritmos de Facebook tienen más poder que nuestro presidente del gobierno.

Debería sorprendernos que una empresa americana pueda inactivar un canal de comunicación de partidos políticos españoles en plena campaña, sin necesidad de una orden judicial. Pero por ahí es por donde va precisamente la legislación. Que los algoritmos controlen preventivamente los contenidos.

Lo cierto es que la inteligencia artificial o el machine learning se están posicionando como la alternativa al fracaso de la política para garantizar la igualdad y la racionalidad. Los algoritmos imparten justicia y son la nueva tierra de las oportunidades.

Tanto es así que los infoproductos sobre cómo triunfar en internet son un negocio millonario. En este mismo momento hay decenas de emprendedores comprando cursos online sobre cómo ganar dinero haciendo publicidad en Facebook y hay cientos de adolescentes descargándose manuales con trucos para conseguir suscriptores a su canal de YouTube. Invertimos mucho en la fantasía de controlar los algoritmos.

¿Pero realmente podemos comprender los algoritmos? Sí, hasta cierto punto sí. Sabemos que haciendo algunos trucos podemos hackearlos y conseguir resultados. Más seguidores, más influencia, más reconocimiento, etc. Pero también tienen un punto totalmente incontrolable.

Cuando Mark Zuckerberg dio explicaciones en el Senado americano sobre el escándalo de Cambridge Analytica, en ningún momento dio claves sobre cómo funcionan sus algoritmos. Daba incluso la sensación de que se basaban en capas superpuestas de programación que van matizando lo anterior. Es decir, son parches que van solucionando los problemas que van surgiendo.

El machine learning se basa en esta idea. Las máquinas aprenden en base a los aciertos y errores que ellas mismas van cometiendo. Esto tiene la ventaja de que el sistema se hace más autónomo, pero tienen un gran inconveniente. Como dice Karlos G. Liberal, conocemos el cómo del sistema, pero el porqué es potencialmente incomprensible.

El propio big data y la inteligencia artificial se basan muchas veces en correlaciones. No en causalidades. Por ejemplo, cuando hacemos publicidad a públicos segmentados por este tipo de inteligencias, el programa busca un patrón de comportamiento. Compran más los individuos con estas características, pero no sabemos si eso es una causa o una casualidad. ¿Funciona para hacer publicidad? Sí. El problema empieza cuando lo utilicemos para otras cosas más delicadas.

Cada día resuelven más aspectos fundamentales de nuestra vida como las hipotecas o el cálculo del precio de los seguros. Basarse en estos sistemas da una sensación de justicia que puede estar infundada. Los algoritmos saben qué hacemos pero son totalmente incapaces de entender por qué lo hacemos.

Da la sensación de que respecto a estos temas tenemos que elegir un bando. O creemos en la tecnología como un dogma de fe o nos posicionamos como críticos distópicos apocalípticos. Pero el reto es entender mejor los matices y los procesos sociales que se generan en torno a estas innovaciones.

Estas nuevas tendencias permiten gestionar volúmenes de información ingentes y hacer análisis cuantitativos muy complejos. Pero esto tiene sus limitaciones. La prueba evidente es que para la moderación de contenido, Facebook tiene que recurrir permanentemente a humanos.

También en el marketing estamos generando un exceso de expectativas sobre la automatización. Está muy bien ahorrar tiempo y procesos, pero nada reduce más costes que una buena investigación y una estrategia acertada.

Se está dando la paradoja de que las empresas más digitales son las que más están aplicando técnicas tradicionales de investigación. Aunque se le pongan nombres molones en inglés, son las entrevistas, grupos de discusión e historias de vida que estudiamos en las carreras de ciencias sociales.

La gran diferencia entre lo cualitativo y lo cuantitativo es que lo primero estudia el porqué y lo segundo el cuánto. Saber por qué se aceptan o deniegan las hipotecas, es un asunto fundamental tanto para el comprador de la vivienda, como para todo el sistema financiero mundial.

La democracia depende de que conozcamos por qué suceden las cosas. Lo contrario es la total impotencia o la fe ciega en el sistema. En la escena de la serie Chernobyl que ilustra este post, el director de la KGB anima al científico protagonista a que ceda y deje de hacerse preguntas con esta gran definición del autoritarismo: “Cuando la bala atraviese sus sesos qué más dará el porqué.”

0 comments