Tercer Milenio

En colaboración con ITA

Ética

Por qué debemos arrebatar el futuro de la inteligencia artificial a los expertos

Nadie es experto en guiar el futuro colectivo. Pese a que nuestra realidad social, laboral y vital sufrirá profundas transformaciones propiciadas por la inteligencia artificial, falta debate político y público al respecto. Un grupo de representantes de la sociedad civil se reunió el pasado verano en Etopia para reflexionar y reclamar unos claros límites éticos y legales que no sean trazados únicamente por expertos, sino con participación colectiva. La Declaración de Zaragoza plantea cinco reivindicaciones básicas.

La diversidad colectiva se traduce en capacidad para afrontar retos.
La diversidad colectiva se traduce en capacidad para afrontar retos.
EFE/ Jean-christophe Bott

Un experto es alguien al que reconocemos como fuente confiable en una determinada materia sobre la que puede juzgar con profesionalidad y rigor. Un cardiólogo, un ingeniero civil o un piloto de aviones, todos son expertos, y la comunidad de la que forman parte les concede la máxima confianza en sus ámbitos de actividad.

Nadie pone en duda la solvencia profesional de un buen experto, el problema surge cuando este se sale de su ámbito competencial. Una de las críticas más conocidas respecto a estos fenómenos de extralimitación la hizo Ortega y Gasset en su famosa obra ‘La Rebelión de las masas’: "El especialista sabe muy bien su mínimo rincón de universo, pero ignora de raíz todo el resto. Y como se siente satisfecho dentro de su limitación, esta misma sensación íntima de dominio y valía le lleva a querer predominar fuera de su especialidad”.

Un ámbito que excede las competencias de los especialistas es la especulación sobre cómo será el futuro. Los expertos no son mejores que los demás prediciendo qué nos va a ocurrir, puesto que eso depende sensiblemente de sucesos coyunturales, maneras de politizar conflictos o de la dificultad de revertir trayectorias socialmente emprendidas. Hace unos años, el psicólogo americano Philip Tetlock publicó los resultados de un estudio elaborado durante más de dos décadas en el que analizaba el registro de 82.000 pronósticos realizados por 284 expertos. La conclusión no pudo ser más decepcionante: el éxito que obtuvieron los especialistas en sus predicciones hubiera sido similar realizando suposiciones al azar. Confiar en las destrezas de los expertos en el ámbito de sus competencias es lógico, confiar en que tengan mejores capacidades que el resto para decidir cómo guiar el futuro colectivo, plantea enormes reservas.

Tecnocracia o democracia 

Este no es un debate nuevo. Las tensiones entre si deben ser los especialistas quienes tomen decisiones colectivas (‘tecnocracia’) o si está legitimado cualquiera que convenza a sus conciudadanos mediante el debate y la exposición de razones (‘democracia’) nos retrotrae a las discusiones que en la antigua Grecia ocurrieron cuando empezaron a gobernarse mediante la soberanía popular.

El problema de asumir que la mayor eficacia en el juicio político la garantizan los expertos es que aceptamos que los problemas comunitarios están expresamente identificados y que, ante ellos, no hay más que una solución correcta sin alternativa. Sin embargo, las demandas políticas no solo exigen análisis y datos, también capturan esperanzas, miedos o desconfianza. Solo emerge una reclamación política cuando se han dado las condiciones para que la sociedad mire hacia cierto tipo de fenómenos con rechazo o preocupación. Es entonces cuando puede pensarse en actuar en consecuencia, creando normas y procedimientos legales para su control. Las demandas no vienen dadas ‘per se’. Solo si se favorecen contextos en los que los sujetos sean escuchados y se les facilitan herramientas que les permitan interpretar e identificar sus inquietudes, sus reclamaciones se traducirán en un problema político y no serán consideradas simples quejas injustificadas. La pluralidad deliberativa y democrática es el mejor método para que se manifiesten todos los aspectos y matices de una realidad.

Autorregulación 

¿Qué tiene que ver esta reflexión con la inteligencia artificial? Vivimos un momento en que la inteligencia artificial (IA) ha pasado de ser un ámbito de las ciencias de la computación para referirse a una tecnología de propósito general que puede provocar transformaciones en muchos de nuestros fundamentos sociales básicos. El desarrollo y el futuro de la inteligencia artificial –si va a afectarnos como se advierte– exige previsión, anticipación y supervisión. En la actualidad, numerosos expertos hacen recomendaciones para protegernos ante el futuro que viene, influyendo de paso en estrategias políticas, inversiones empresariales o propuestas regulatorias. De manera mayoritaria, estas voces son las de los actores que lideran actualmente el desarrollo de la IA –grandes corporaciones como Google, Amazon o Facebook– y pretenden establecer el marco del debate sobre cómo debe ser la futura regulación de estas tecnologías.

Básicamente, su propuesta es que, para evitar una normativa que penalice la innovación, los poderes públicos deberían apostar por escenarios de autorregulación y de promoción de códigos éticos para investigadores y desarrolladores. Una postura que ha impulsado de manera abrumadora manifiestos que promueven una ‘inteligencia artificial ética’.

Bajo esta apelación a la ‘ética’ conviven iniciativas de lo más heterogéneo. Algunas organizadas por grandes empresas (por ejemplo, Amazon, Apple, Google, Facebook, IBM y Microsoft han publicado sus propios manuales de buenas prácticas). Otras vienen propuestas desde comunidades científicas o ingenieriles (como la promovida por la comunidad internacional tecnológica más famosa, el Institute of Electrical and Electronics Engineers, o los manifiestos provenientes de expertos científicos en Barcelona, Copenhague o Asilomar). Existen también esfuerzos gubernamentales de carácter político (mediante iniciativas como la ‘Europe’s Global Forum on AI ethics’ o la ‘Ethics Guidelines for Trustworthy AI’ del Grupo de Expertos de Alto Nivel de la Comisión Europea).

El mayor problema de estos manifiestos no es que se limitan a ser ejercicios deliberadamente poco profundos. El peligro está en que usan los ámbitos de la regulación, la autorregulación y la ética de un modo impreciso e intercambiable, cerrando el paso a la posibilidad de verdaderos espacios de reflexión de la sociedad civil que generen posicionamientos compartidos.

La reflexión ética siempre existe en un estado previo a la ley y a la autorregulación. Es el fermento con el que la sociedad perfila su sensibilidad y fija posiciones colectivas que más tarde canaliza mediante sus instituciones. Es función del debate social establecer los límites éticos, los mecanismos de supervisión y rendición de cuentas, y el perímetro de responsabilidad que determine el alcance de los desarrollos en estas tecnologías. No es algo que deban dictaminar los beneficiarios.

Debate público 

Por esta razón es necesario crear entornos de debate público, donde se mantengan diálogos entre investigadores, desarrolladores y miembros de la sociedad civil. En estos espacios los ciudadanos pueden plantear sus temores, vulnerabilidades y deseos en relación con las implicaciones de la inteligencia artificial. Son foros que enmarcan qué orientaciones políticas deberían seguirse, y que ayudan a sustentar en acuerdos lo que se determina socialmente útil, deseable y justo. Este fue el objetivo del foro de discusión que, a finales de julio de 2019, se celebró en el Centro de Arte y Tecnología Etopia. Estuvo formado por representantes del mundo académico y la sociedad civil, con perfiles heterogéneos y sensibilidades distintas, que cuajaron en la que hemos llamado la ‘Declaración de Zaragoza’.

Fue un experimento colectivo. Nos sirvió para recoger preocupaciones que emergieron mediante deliberación en relación con las incertidumbres que abren las tecnologías inteligentes. Frente a las dudas que el futuro despierta, lo más útil es permitir visiones plurales que provengan de una representación variable de perspectivas. Para los poco convencidos hay un argumento de peso. Es posible demostrar experimentalmente que, si le planteamos a dos grupos de personas la resolución de un problema, un equipo con perfiles diversos seleccionados al azar tiene mejor rendimiento que otro formado por los mejores especialistas de esa población.

El resultado se basa en el siguiente hecho: cuando un grupo crece, los agentes con más talento se vuelven similares en sus estrategias. Esta mayor capacidad colectiva se ve contrarrestada por la falta de diversidad de perspectivas en el modo en que se representan los problemas y en la escasa variabilidad de heurísticas –técnicas moldeadas por la experiencia, la formación o las preferencias– que les permite abordar retos.

Diversidad y capacidad

En este sentido, podemos decir que la diversidad triunfa sobre la capacidad. Es cierto que la ganancia no es gratis. Los que resuelven problemas con perspectivas casi idénticas se comunican más fácilmente entre sí, mientras que aquellos que resuelven problemas con perspectivas diversas encuentran mayores dificultades para entender las soluciones identificadas por otros agentes.

Esta experiencia nos mostró que, frente al futuro de la inteligencia artificial, en lugar de más opiniones de especialistas, lo que necesitamos son mecanismos adecuados para potenciar entornos que favorezcan la diversidad y faciliten el diálogo. Este tipo de propuestas generan cierta condescendencia entre algunos expertos convencidos de que son planteamientos ingenuos e improductivos. Que si hay que hacer previsiones serias, y con garantías, tendrá que ser su autoridad la que tome el mando. Tengo una mala noticia para ellos: la evidencia de que grupos diversos resuelven los problemas mejor que grupos de especialistas... viene avalada por expertos.

Declaración de Zaragoza

El diálogo acerca de la inteligencia artificial planteado en la escuela de verano ‘Conocimientos híbridos’, celebrada en julio en Etopia, dio como fruto la Declaración de Zaragoza. Esta iniciativa se fraguó para hacer frente al déficit de debate político y público en relación a las transformaciones que anticipa la inteligencia artificial –muchas son ya parte de nuestra realidad social, laboral y vital–. Los firmantes del manifiesto fueron representantes de la sociedad civil interesados en que se escucharan sus voces. El documento recoge cinco reivindicaciones que pretenden llegar a convertirse en compromisos para quienes legislan, diseñan e implementan estas tecnologías. La declaración es, en sí misma, una manera de reclamar una gobernanza que ponga límites éticos y legales de manera clara, contando con la participación colectiva. Estos son sus cinco puntos:

  1. Tecnologías social y medioambientalmente responsables Impulsemos desarrollos en inteligencia artificial que permitan el diseño de políticas públicas y cuyo consumo energético se guíe por criterios de sostenibilidad. Desde la Administración, se deben promover tecnologías que exploten las bases de datos disponibles para fines medioambientales, mejora de movilidad urbana o que impulsen servicios sociales y actividad cultural. Pero, además, debe hacerse un balance entre la eficacia de estos sistemas y los recursos utilizados para su funcionamiento. El consumo eléctrico que conlleva el procesamiento de cantidades masivas de datos es tan elevado que las emisiones de carbono asociadas son ingentes. La apuesta por el diseño de algoritmos que requieran menos consumo no solo es un reto científico sino de necesaria sostenibilidad.
  2. Trazabilidad y testabilidad como ejes imprescindibles En los casos donde la explicabilidad algorítmica no sea posible, la seguridad debe garantizarse mediante procesos estandarizados de ingeniería de testeo. Algunas tecnologías recientes permiten resolver problemas complejos sin proporcionar un modelo de su funcionamiento que pueda expresarse, ni siquiera para sus diseñadores, en términos comprensibles. En aplicaciones concretas, demandar este nivel de explicabilidad en los algoritmos no es posible pero tampoco imprescindible. Sin embargo, es necesario que se contemplen en el diseño mecanismos que permitan a medios independientes examinar y auditar tales sistemas. Es decir, procedimientos estandarizados que aseguren la trazabilidad y testabilidad como medio para disponer de sistemas confiables.
  3. Tecnologías explicables si hay derechos fundamentales en juego Es necesario asegurar un ‘derecho a la explicación’, para el sujeto afectado, si un algoritmo ha intervenido en una situación sensible que pueda poner en riesgo sus derechos fundamentales. Esta reclamación es una extensión de un derecho ya reconocido desde 2018 por el Reglamento Europeo de Protección de Datos pero que se reduce a situaciones muy limitadas. Se solicita profundizar en esta medida con el fin de que se extienda su aplicabilidad para estas situaciones de controversia algorítmica, y que se habiliten, en la práctica, mecanismos concretos de impugnación.
  4. Equipos de desarrollo que integren conocimientos científicos y humanísticos La investigación en inteligencia artificial exige expandir los perfiles de quienes se dedican a su diseño y análisis, superando la dimensión puramente técnica. La visión que se aporta desde las ciencias sociales y las humanidades debe estar presente en los procesos de diseño, ayudando a guiar los desarrollos y codefiniendo métodos de supervisión que incorporen, a lo largo del proceso, preocupaciones que trasciendan lo técnico. Involucrar diferentes fuentes de experiencia y conocimiento permite afrontar mejor los desafíos que tenemos planteados.
  5. Códigos deontológicos de responsabilidad social para profesionales y empresas Los límites éticos del software deben ser parte de la formación de los programadores informáticos en inteligencia artificial. Una mayor presencia de la reflexión ética en las aulas donde se prepara a los futuros ingenieros podría jugar un papel fundamental en el futuro de estas tecnologías al favorecer que los desarrolladores cobrasen una mayor conciencia sobre las potenciales consecuencias de sus decisiones. No solo para los programadores, sino obviamente para el ciudadano en general, la mejor garantía de que el ejercicio de un oficio se realice de forma responsable es una buena educación ética, social e histórica; humanista, en definitiva.

Texto íntegro de la declaración.

Manuel G. Bedia Profesor Titular en el Departamento de Informática e Ingeniería de Sistemas de la Universidad de Zaragoza y coorganizador de la escuela de verano ‘Conocimientos híbridos’

-Ir al suplemento Tercer Milenio

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión