Igualdad algorítmica

El País, 13/05/2022 (enlace)

 

La democracia nace como una promesa de igualdad en cuanto a la capacidad de todos a la hora de influir en las decisiones que nos afectan. Instituciones como el voto, la representación, la participación son procedimientos que tratan de asegurar esa igualdad. A medida que la esfera digital se ha ido constituyendo como un ámbito de configuración de la voluntad política, la igualdad que en ella es posible y deseable ha sido objeto de numerosas propuestas y polémicas. Tal vez por falta de perspectiva histórica, tal vez debido a una escasa conceptualización, no disponemos todavía de un marco categorial que de cuenta de la naturaleza del nuevo espacio digital y su significación democrática.

 

Las interpretaciones propuestas hasta ahora pueden agruparse en tres posibles versiones de la democracia digital conforme a los tres modos como se articulan las acciones de los miembros en las sociedades complejas: ágora, mercado y jerarquía. El ágora es la comunicación horizontal y abierta, el mercado es un sistema de información que estructura los precios y la burocracia es un modo institucional de asignar las decisiones. La igualdad sería, respectivamente, un valor garantizado por el carácter abierto del espacio digital, por su semejanza con un mercado en el que se desenvuelve el consumidor soberano o el resultado de una determinada acción de gobierno que interviene y regula. ¿Debemos entender el mundo digital como un vector de democratización, como un negocio o como una cuestión de poder?

 

No podemos democratizar la autoridad que se ejerce en el nuevo espacio digital si no sabemos qué tipo de autoridad es. Tenemos que preguntarnos si estamos en un ágora donde la dominación habría sido sustituída por la neutralidad, un mercado que satisface preferencias o una burocracia que administra con eficacia y justicia. ¿Quién es el soberano, el algoritmo, el consumidor o el estado?

 

Para dilucidar esta cuestión deberíamos abordar al menos tres cuestiones. La primera de ellas se refiere a la neutralidad algorítmica. De entrada, el espacio digital se presenta como un ámbito horizontal y libre de dominación, donde no habría más que sugerencias, satisfacción de las demandas que expresa nuestro propio rastro digital. La inteligencia artificial y los sistemas de gobernanza algorítmica funcionan con una lógica que se parece mucho al individualismo democrático pero que lo altera de una manera que es necesario comprender para valorar su legitimidad. Que sean sistemas para la identificación y satisfacción de nuestras preferencias no quiere decir que se plieguen a las características de cada individuo, sino que se adaptan a características o huellas de grupo que unos individuos comparten con otros. En este recorrido suele producirse una alteración de adquiere el carácter de sesgos discriminatorios. Satisfacer al patrón en el que encaja un individuo no es lo mismo que satisfacer a un individuo. Examinar grupos de poblaciones y crear perfiles ofrece amplias posibilidades para la exclusión y la manipulación. Por supuesto que no estamos aquí ante un vigilante manipulador sino más bien frente a un mecanismo banal de discriminación, que promete neutralidad pero que no puede garantizarla por diversas circunstancias que tienen que ver precisamente con la lógica algorítmica.

 

Los algoritmos tienen una dimensión política en la medida en que intervienen en el orden social y estructuran nuestras decisiones. Cuando decimos que algo tiene una dimensión política solemos indicar dos cosas en apariencia contradictorias: que hay mucha política y muy poca. Que haya mucha política en los algoritmos quiere decir que están ejerciendo un tipo de autoridad que solo corresponde a la política y configurando la realidad social como solo la política está autorizada a hacer. Que haya poca política en ellos quiere decir que deben ser politizados, es decir, sometidos a los procesos de autorización política expresa, que en una democracia tienen unos espacios y procedimientos determinados.

 

La segunda cuestión nos remite a por qué resulta tan tentador confundir la lógica política con la lógica del mercado y si los procedimientos algorítmicos pueden ser subsumidos en la categoría del consumo. Un primer argumento para no confundir lo uno con lo otro es que la democracia se basa en el principio de no abandonarse a la benevolencia de las autoridades (Przeworski). Si la democracia no es una provisión de servicios, el ciudadano no es un cliente satisfecho. La gobernanza algorítmica es un tipo de gobernanza que trata a los ciudadanos más bien como consumidores que en el mejor de los casos validan la satisfacción puntual de sus preferencias pero a los que no se les ha pedido opinión sobre la sociedad que desean o algún control sobre la clase final de sociedad que resultaría de la agregación de esas preferencias.

 

Los algoritmos así entronizados tienen un efecto despolitizador. La lógica algorítmica despolitiza en la medida en que neutraliza el posible cuestionamiento del automatismo que procura nuestra satisfacción. Sus ventajas en términos de satisfacción de las necesidades individuales podrían ser tan embaucadoras que ni siquiera se plantee una alternativa a ese tipo de gobernanza, a sus fines y procedimientos.

 

El tercer marco categorial para entender la lógica digital nos lo ofrecen las categorías de la burocracia y la jerarquía. ¿Podría ser la administración digital un sistema que hiciera superfluos otros modos de auto-organización de la sociedad, concretamente de aquellos que calificamos como propiamente democráticos? ¿Cabría pensar en una gobernanza algorítmica que hiciera innecesarios los debates ideológicos acerca de sus conceptos, principios y valores?

 

En una sociedad democrática la política no se reduce a la racionalidad administrativa. Ningún sofisticado dispositivo para calcular y decidir parece en condiciones de hacer superfluo el momento propiamente político en el que discutimos y decidimos los fines a cuyo servicio ponemos los instrumentos de gestión de que disponemos. La política es inevitable porque, aunque pueda ayudarnos, la inteligencia artificial no es capaz de concebir ni garantizar esa igualdad a la que aspira la democracia. Donde mejor se pone de manifiesto esta limitación es en el hecho de que la tecnología no disuelve las controversias debidas a nuestras diferentes concepciones de la igualdad ni garantiza la satisfación simultánea de preferencias e intereses diversos.

 

Incluso allá donde hay un amplio acuerdo acerca de la conveniencia de promover la igualdad no necesariamente se comparte la misma idea de igualdad. Hay quien se da por satisfecho con que sean idénticas las condiciones de partida, mientras que otros la entienden como una similitud en los resultados; tenemos además todo el debate entre igualdad formal e igualdad diferenciada. ¿Cómo deben articularse categorías, grupos e individuos para hacer frente a las discriminaciones que proceden de la pertenencia a un determinado grupo y las que se deben a ser agrupado de esa manera? Son asuntos que deben ser objeto de discusión política y no de agregación algorítmica.

 

Si hubiera acuerdo acerca de qué significa igualdad entonces el algoritmo desarrollaría una tarea puramente técnica; se trataría nada más que de encontrar el mejor modo de operacionalizar esa idea de justicia. El problema es que la idea de justicia es un verdadero campo de batalla democrático, un concepto elevadamente controvertido en cualquier sociedad plural. Hay más desacuerdos acerca de los valores en sí mismos que sobre los medios de conseguirlos. Ningún dispositivo tecnológico puede ahorrarnos el trabajo de discusión democrática en torno a los fines, aunque pueda facilitarnos enormemente la tarea de implementación de los objetivos que democráticamente hemos decidido perseguir.

Instituto de Gobernanza Democrática
Instituto de Gobernanza Democrática
Libros
Libros
RSS a Opinión
RSS a Opinión