Por
  • Jorge Gracia del Río

Algoritmos y elecciones

Algoritmos y elecciones
Algoritmos y elecciones
Pixabay

En 1955, Isaac Asimov publicó su relato ‘Sufragio universal’. En él describe cómo la primera democracia electrónica utiliza el computador más avanzado del mundo (Multivac) para decidir el voto de toda una nación, con la intervención de un único votante humano.

Si bien no hemos llegado a ese inquietante futuro, el papel de la inteligencia artificial y de la ciencia de datos es cada vez más importante en el curso de las elecciones democráticas. Las campañas electorales de Barack Obama y Donald Trump, el Partido Sintético de Dinamarca y el robo masivo de información en la campaña de Macron son buenos ejemplos.

Uno de los primeros casos de éxito en el uso de técnicas de ‘big data’ y análisis de redes sociales para ajustar una campaña electoral fue el de Obama para las presidenciales de Estados Unidos en 2012. En su campaña, las encuestas tradicionales de intención de voto, basadas en llamadas telefónicas o entrevistas personales, se complementaron con el análisis de redes sociales. Estos análisis ofrecen un método barato y casi en tiempo real de medir la opinión de los votantes. Para ello se aplican técnicas de ‘procesamiento del lenguaje natural’ (PLN), en particular las dedicadas al análisis de sentimiento. Dichas técnicas analizan los mensajes contenidos en tuits, blogs, etc., y tratan de medir si las opiniones vertidas en ellos son positivas o negativas con respecto a un cierto político o a un cierto mensaje electoral.

El principal problema que tienen es el sesgo muestral, pues los usuarios más activos en redes sociales suelen ser jóvenes y tecnófilos, y no representan a toda la población. Por eso estas técnicas tienen limitaciones a la hora de predecir resultados electorales, aunque resultan muy útiles para estudiar las tendencias de voto y el estado de opinión de la gente.

Más inquietante que el estudio de las emociones en redes sociales resulta su uso para influenciar estados de opinión y modular el voto. Un caso bien conocido es el de la campaña de Donald Trump en las presidenciales de EE. UU. de 2016. El ‘big data’ y los perfiles psicográficos tuvieron mucho que ver con una victoria que no habían logrado predecir las encuestas. No se trató de una manipulación en masa, sino que diferentes votantes recibieron diferentes mensajes basados en predicciones sobre su susceptibilidad a diferentes argumentos, recibiendo información sesgada, fragmentada y a veces contradictoria con otros mensajes del candidato. La tarea fue encomendada a la empresa Cambridge Analytica, que se vio implicada en una polémica por la recopilación no autorizada de información sobre millones de usuarios de Facebook. Su método se basaba en los estudios de psicometría de Kosinski, que comprobó que con un número limitado de ‘likes’ se puede obtener un perfil del usuario tan acertado como si lo hicieran sus familiares.

El problema con este enfoque no está en el uso de la tecnología sino en la naturaleza ‘encubierta’ de la campaña, la manipulación psicológica a votantes susceptibles a través de apelaciones directas a sus emociones o la difusión deliberada de noticias falsas. Fue el caso de Emmanuel Macron en las presidenciales francesas de 2017. Su campaña sufrió un robo masivo de correos electrónicos. Multitud de ‘bots’ se encargaron de difundir evidencias de comisión de delitos que luego resultaron falsas.

No menos inquietante es la posibilidad de que una inteligencia artificial (IA) nos gobierne. Dinamarca abrió el debate en sus últimas elecciones legislativas, a las que concurrió el Partido Sintético, liderado por una IA, un ‘chatbot’ llamado Leader Lars, con la aspiración de entrar en el parlamento. Detrás del ‘chatbot’ hay humanos, naturalmente, en particular la fundación Mind Future de arte y tecnología.

Leader Lars fue entrenado con los programas electorales de partidos daneses marginales desde 1970 para configurar una propuesta que representara al 20% de la población danesa que no acude a las urnas.

Si bien el Partido Sintético parece una extravagancia, ha servido para estimular el debate sobre la capacidad de una IA para gobernarnos. ¿Puede realmente una IA contemporánea, bien entrenada y con suficientes recursos, gobernarnos?

Si analizamos el pasado reciente de la inteligencia artificial, vemos que los avances se suceden a velocidad de vértigo, particularmente en el campo del procesamiento del lenguaje natural tras la aparición de las arquitecturas basadas en ‘transformers’. Los ‘transformers’ son enormes redes neuronales artificiales entrenadas para aprender a generar textos, pero fácilmente adaptables a muchas otras tareas. De alguna manera, estas redes aprenden la estructura general del lenguaje humano y acaban teniendo un conocimiento del mundo a través de lo que han ‘leído’.

La intromisión de la inteligencia artificial en los procesos electorales ya es un hecho; pero, ¿sería posible que un algoritmo eligiese al próximo presidente del Gobierno?

Uno de los ejemplos más avanzados y espectaculares lo ha desarrollado Open AI y se llama Chat GPT. Se trata de un ‘chatbot’ capaz de responder de manera coherente a casi cualquier pregunta formulada en lenguaje natural, de generar texto o de efectuar tareas tan complicadas como escribir programas informáticos a partir de unas pocas indicaciones.

Las ventajas de usar una IA para la acción de gobierno serían varias. Por una parte, su capacidad de procesar datos y conocimiento para la toma de decisiones es muy superior a la de cualquier humano. También estaría libre (en principio) del fenómeno de la corrupción y no le influirían los intereses personales. Pero, a día de hoy, los ‘chatbots’ sólo reaccionan, se alimentan de la información que alguien les proporciona y dan respuestas. No son libres de pensar ‘espontáneamente’, de tomar la iniciativa. Es más adecuado ver estos sistemas como oráculos, capaces de responder a preguntas del tipo ‘¿qué crees que pasaría si…?’, ‘¿qué propondrías en caso de…?’, más que como agentes activos o controladores.

Los posibles problemas y peligros de este tipo de inteligencias, basadas en grandes redes neuronales han sido analizados en numerosos estudios científicos. Un problema fundamental es el de la falta de transparencia (‘explicabilidad’) de las decisiones que toman. En general actúan como ‘cajas negras’ sin que podamos saber qué razonamiento han llevado a cabo para llegar a una conclusión.

Y no olvidemos que detrás de la máquina están los humanos, que han podido introducir ciertos sesgos (consciente o inconscientemente) en la IA a través de los textos que han usado para entrenarla. Por otro lado, la IA no está libre de dar datos o consejos erróneos, como muchos usuarios de Chat GPT han comprobado.

Los avances tecnológicos permiten vislumbrar una futura IA capaz de ‘gobernarnos’, por el momento no sin el imprescindible control humano. El debate debería moverse pronto del plano técnico al plano ético y social.

Jorge Gracia del Río es investigador ‘Ramón y Cajal’ en Lenguajes y Sistemas Informáticos en la Universidad de Zaragoza

Este artículo ha sido facilitado por The Conversation España

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión