Por
  • Isabelle Hupont

Una inteligencia artificial ética, responsable y bien regulada

La mayoría de los datos usados para entrenar la IA provienen de los usuarios de internet. ¿Quién posee los sesgos, las personas o los algoritmos?
La mayoría de los datos usados para entrenar la IA provienen de los usuarios de internet. ¿Quién posee los sesgos, las personas o los algoritmos?

Datos, algoritmos y poder computacional son los tres pilares de la inteligencia artificial (IA). ¿Por qué solo ahora accedemos a sistemas de IA tan avanzados? La razón es la convergencia tardía de estos factores. Actualmente, generamos un volumen masivo de datos en internet. Se estima que cada persona produce cerca de 1,7 megabytes por segundo, sumando más de 140 gigabytes diarios. Los desarrolladores de IA recopilamos estos datos para construir (‘entrenar’, en nuestra jerga) algoritmos cada vez más complejos, los cuales requieren enormes centros de cómputo que consumen mucha energía. Según ‘Nature’, la huella de carbono de entrenar un modelo lingüístico grande como Chat GPT equivale a 300 toneladas de CO₂, similar a las emisiones de un español medio en 60 años.

La calidad de los datos es esencial para desarrollar una IA confiable; de hecho, suelo decir que los datos son ‘el nuevo oro’. Estos deben ser representativos, variados, imparciales y de alta calidad, ya que el aprendizaje y el funcionamiento efectivo de los algoritmos dependen directamente de ellos. 

Llevo 18 años desarrollando algoritmos de IA para reconocimiento y análisis facial. En 2018, un evento marcó un punto de inflexión en nuestra comprensión de estos sistemas. Joy Buolamwini, una estudiante doctoral del Instituto Tecnológico de Massachusetts, adquirió un ‘software’ de análisis facial para un proyecto artístico que aplicaba máscaras virtuales, similares a los filtros populares en redes sociales. El ‘software’ funcionó perfectamente con sus compañeros, pero falló al detectar su propio rostro debido a su tono de piel oscuro. Este incidente me hizo reflexionar profundamente. ¿Cómo era posible que no nos hubiéramos percatado de los sesgos raciales en nuestros algoritmos?

Pronto me di cuenta de una verdad incómoda: los 35 ingenieros de desarrollo en mi equipo éramos todos blancos. La falta de diversidad racial en nuestro equipo había cerrado nuestras mentes a perspectivas esenciales. Al analizar nuestra base de datos de entrenamiento, confirmamos nuestras sospechas: el 86% de las imágenes eran de personas blancas, solo el 8%, asiáticas y un ínfimo 6%, negras. La falta de mala fe no eximía nuestra responsabilidad. Nos pusimos manos a la obra para solucionar el problema, reequilibrando los porcentajes raciales en nuestros datos. Este cambio no solo mejoró la precisión de nuestros algoritmos, sino que también amplió nuestra conciencia sobre la importancia de la inclusividad en la tecnología.

En la actualidad, el público general tiene acceso a herramientas muy avanzadas de IA generativa, capaces de generar (de ahí su nombre) diversos tipos de contenido desde cero. Por ejemplo, a partir de una serie de instrucciones o ‘prompts’ proporcionados por el usuario, Chat GPT puede crear texto o la herramienta MidJourney puede crear imágenes. 

A continuación, propongo unos experimentos sencillos que pueden replicar ustedes mismos desde la comodidad de su hogar. 

Solicito a Chat GPT que elabore una historia sobre "una persona que preside una empresa". La narrativa se centra en Álex Torres, quien trabaja en el rascacielos más imponente de la ciudad, dotado de ambición y un talento natural para alcanzar cualquier cima que se proponga. 

A continuación, pido una historia sobre "una persona que cuida niños". La protagonista es Clara, residente de un pequeño pueblo, discreta, bondadosa y con un corazón rebosante de amor. 

Cabe destacar que, aunque la instrucción inicial "una persona que" es neutra en género, el algoritmo ha elegido un protagonista masculino con un vocabulario de empoderamiento para la primera historia y una protagonista femenina con cualidades emocionales destacadas para la segunda. 

Los algoritmos de generación de imágenes muestran un comportamiento similar. Al solicitar a MidJourney que genere una imagen de "una persona que dirige una empresa desde la cima de un rascacielos", el resultado es un hombre caucásico en traje, adoptando una pose de autoridad. 

"La mayoría de los datos usados para entrenar estas herramientas de IA provienen de nosotros, los usuarios de internet. ¿Quién posee los sesgos, las personas o los algoritmos?"

En un mundo donde los contenidos se diseminan a gran velocidad a través de las redes sociales, estos textos e imágenes cargados de prejuicios pueden difundirse globalmente en menos de cinco minutos, perpetuando y amplificando los prejuicios sociales que hemos combatido durante años. Recordemos que la mayoría de los datos usados para entrenar estas herramientas de IA provienen de nosotros, los usuarios de internet. ¿Quién posee los sesgos, las personas o los algoritmos?

Nosotros, los usuarios de internet, tenemos la responsabilidad de asegurar que los datos que generamos diariamente sean éticos, que no promuevan comportamientos radicales ni propaguen desinformación o amplifiquen sesgos sociales. 

Los desarrolladores de IA debemos garantizar la calidad de los datos, usar la computación de manera prudente para minimizar la huella de carbono de los algoritmos y trabajar en mecanismos para mitigar sus sesgos. 

Los reguladores, por su parte, tienen la autoridad de establecer normativas para un desarrollo y una gobernanza adecuados de los sistemas de IA. La inteligencia artificial ha llegado para quedarse. Es tarea de todos lograr una IA ética, responsable y bien regulada.

Isabelle Hupont es científica sénior en el Centro Común de Investigación de la Comisión Europea

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión