Por
  • Alicia Asín

Algoritmo equivocado

Los investigadores han desarrollado algoritmos que son capaces de entrenar a los algoritmos de aprendizaje automático para que tengan un buen funcionamiento y eviten los sesgos.
'Algoritmo equivocado'
Pixabay

Hace un par de años un algoritmo clasificó como mujer la imagen de un hombre. La razón: estaba en una cocina. 

Ahora, Estados Unidos mantiene el debate abierto sobre la regulación del uso de tecnologías de reconocimiento facial después de que se hayan producido varios arrestos de gente inocente mal identificada, en su mayoría de raza negra. Tendemos a mitificar los resultados que provienen de algoritmos de inteligencia artificial, pero olvidamos que la tecnología puede ser tan perfecta como imperfecto y sesgado sea el equipo que la desarrolle. Al fin y al cabo, los algoritmos no hacen otra cosa que aprender de los datos que les proporcionamos, lo cual puede amplificar el clasismo, sexismo o racismo que se refleje en los mismos. Por ejemplo, un algoritmo leyó 3.5 millones de libros y concluyó que las mujeres son generalmente descritas como ‘bellas y sexis’, mientras que los hombres son ‘rectos, valientes y racionales’. Esperemos que ese algoritmo no se use en procesos de selección de personal.

El reconocimiento facial también puede ser una poderosa herramienta para combatir el crimen, identificar a personas que se desorienten y localizar a niños perdidos. Los algoritmos mantienen los sesgos de quien los escribe, pero no olvidemos que dichos sesgos son humanos. La solución para combatirlos no es humanizar procesos que se pueden automatizar, sino humanizar y cuestionar la interpretación de sus resultados con sentido crítico, asumiendo que la tecnología, aunque sea tecnología, también puede equivocarse a veces.

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión