Tercer Milenio

En colaboración con ITA

entrevista

Helena Matute: “Se está haciendo un uso muy perverso de la inteligencia artificial en internet”

Le dicen que está obsesionada, pero Helena Matute piensa que no podemos dejar que lo que mueva el mundo sean los clics que consiguen cuatro empresas aliando tecnología y psicología. En su aplicación más extendida, a través de internet, la inteligencia artificial “aprende y explota los sesgos, los miedos de cada uno”. Le parece de historia de terror que esos algoritmos nos conozcan mejor que nosotros mismos. Todo vale para que pasemos más tiempo conectados y “lo mismo te venden una tostadora que un presidente”. Pide regulación y un gran debate social.

Helena Matute, antes de su charla en Ibercaja Patio de la Infanta.
Helena Matute, antes de su charla en Ibercaja Patio de la Infanta.
Guillermo Mestre
  • Helena Matute es catedrática de Psicología, dirige el Laboratorio de Psicología Experimental en la Universidad de Deusto.
  • Investiga sobre cómo aprendemos, sesgos cognitivos, asociaciones mentales, supersticiones, pseudociencias, ilusiones causales, aprendizaje asociativo y memoria.
  • También estudia la psicología de las nuevas tecnologías, las relaciones entre humanos e inteligencias artificiales y aspectos psicológicos de la vida en la red.
  • Participó en el ciclo 'Inteligencia artificial y sociedad' organizado por el Centro Universitario de la Defensa en Ibercaja Patio de la Infanta.

¿Hay psicología detrás de la inteligencia artificial (IA)?

Todo y más. Por una parte, las máquinas intentan imitar el aprendizaje natural de personas y animales, o mejorarlo. Para que sea un aprendizaje más flexible, menos ‘robótico’, que no solo haga aquello para lo que fueron programadas, sino que con pocos datos sean capaces de aprender y de tomar decisiones relativamente intuitivas. Para todo eso hace falta mucha psicología, además de ingeniería y matemáticas. Pero a la vez que hay aplicaciones fantásticamente buenas, se está haciendo un uso muy perverso y muy dañino de la inteligencia artificial. Para manipular, psicología y tecnología van muy juntas.

"Las cuatro empresas que dominan el mundo de internet explotan los sesgos cognitivos en su beneficio"

¿De qué forma?

Los sesgos cognitivos son esos errores que cometemos en el razonamiento y que nos hacen caer a todos en la misma trampa. En psicología llevamos años estudiándolos para ayudar a la gente a no cometerlos y hoy, las cuatro empresas que dominan el mundo de internet hacen todo lo contrario, intentan explotar esos sesgos cognitivos en su beneficio.

¿Cómo nos manipulan?

En Youtube muestras lo que te gusta. El algoritmo va aprendiendo de ti y conociendo cómo eres, pero a su vez te va manipulando, mostrándote cada vez cosas más extremas. Si le muestras que te preocupa un tema político: las pensiones, el paro, los inmigrantes, lo que sea, te va polarizando cada vez más. Esos vídeos más extremos explotan los sesgos, los miedos de cada uno, para conseguir su objetivo, que son simplemente los clics. Esos algoritmos nos conocen mejor que nosotros mismos, mejor que nuestras madres; es bestial. Cuando hablamos de robo de datos no hablamos de que nos roban el email y nos mandan publicidad de la de toda la vida. Hablamos de que saben cuál es nuestra personalidad a través de los ‘likes’, de los retuits, saben quién es introvertido y quién no, hasta el punto de que poder predecir la enfermedad mental.

¿Hay algoritmos malévolos?

En realidad son sistemas automatizados. El algoritmo no tiene intenciones, pero sí una meta: los clics. El negocio que hay por detrás de Youtube, de Amazon, de Google, de Facebook, son los clics, el oro actual: tener más humanos más tiempo haciendo clic en mi web. Para eso vale todo. Hay un condicionamiento de hábitos muy fuerte para que pasemos más tiempo y nos cueste más dejarlo.

Somos poco conscientes de lo que eso supone.

La gente dice "si, total, solo me mandan publicidad de la de toda la vida". Pero la publicidad que te mandan a ti es diferente de la que me mandan a mí, porque tenemos miedos diferentes. Con cada persona saben qué resorte tocar; lo mismo te venden una tostadora que un presidente. En Reino Unido, el escándalo de Cambridge Analytica dejó claro que Facebook intervino en el ‘brexit’: se pusieron anuncios en la época previa al referéndum pero solo a la vista de la gente que mostró sus miedos a Europa. Facebook gana muchos clics y mucho dinero y, a cambio, tenemos Europa rota.

En España, el Tribunal Constitucional acaba de anular por inconstitucional el artículo de la Ley Orgánica de Régimen Electoral que permitía a los partidos recopilar datos sobre las opiniones políticas de los ciudadanos.

Ha sido una victoria tremenda de la sociedad civil. Es escandaloso que esos políticos que se supone que nos tienen que proteger de ese mal uso de la tecnología y la psicología en internet, se aprovechen también de nuestros sesgos y miedos para conseguir votos. Porque, pese a que el año pasado estrenamos una ley europea de protección de datos que limita que las empresas hagan esa segmentación por perfiles, en noviembre de 2018, con todas estas elecciones a la vista, todos los partidos políticos votaron en el Parlamento una forma de saltarse esa ley europea y poder hacer ellos, los partidos, perfiles ideológicos de los españoles. Que haya prosperado el recurso presentado por el Defensor del Pueblo prueba que en Europa estamos un poquito más protegidos de todo este horror. Van a tener que borrar los datos de ideología política que nos ha robado hasta ahora. Estar fichado ideológicamente, que los partidos sepan cómo piensa cada uno, es algo muy peligroso; quienes vivimos en el País Vasco lo sabemos bien.

"Estar fichado ideológicamente, que los partidos sepan cómo piensa cada uno, es algo muy peligroso"

¿Realmente se pueden poner puertas al campo?

Yo lo llamo ética. Es muy urgente legislar porque estamos en el salvaje Oeste. Si no, no se van a solucionar todos los demás problemas importantes: vacunas, resistencia a antibióticos, cambio climático. Tienen mucho que ver con actitudes humanas y, a día de hoy, se están manipulando.

¿Cómo poner coto?

Podría legislarse para que los móviles, tablets, ordenadores que se vendan vengan con la configuración más beneficiosa para el usuario. Quien quiera que le perfilen que lo indique, no al revés, porque configurar todo para estar protegido lleva muchísimo tiempo.

"Tenemos que conseguir que las metas de la inteligencia artificial estén alineadas con las metas humanas, con el bien común"

¿Será posible una convivencia con la inteligencia artificial?

Hace unos años, 8.000 científicos firmaron una carta abierta en la que apostaban por una inteligencia artificial que haga lo que queremos que haga. Hoy no tenemos el control, ni muchísimo menos. Tiene que haber un debate social enorme. Como dice Stuart J. Russell, líder en este campo, tenemos que conseguir que las metas de la inteligencia artificial estén alineadas con las metas humanas, con el bien común.

Actualmente, todos nos hemos convertido en profesores de Google, Facebook, Youtube... ¿Cómo aprende la inteligencia artificial?

Como personas y animales, hay un aprendizaje por reforzamiento. Sigue la ley del Efecto, una de las pocas leyes de la psicología, que propuso Thorndike, de 1911; estudió en gatos que metía en una caja de problemas y tenían que buscar la forma de salir de la caja; por puro azar tocaban un pedal y se abría y cada vez tardaban menos en salir. Eso es el aprendizaje: toda conducta seguida de consecuencias agradables tenderá a repetirse (y al revés si las consecuencias son desagradables). Eso nos condiciona a personas, animales y a las inteligencias artificiales también. Si das al 'Me gusta', enseñas al algoritmo qué quieres que te muestre.

Si la inteligencia artificial aprende de la sociedad, ¿será racista y machista como la sociedad?

Exacto. Crearon un algoritmo, lo pusieron en Twitter y, a las 24 horas, era racista e insultaba a todo el mundo y tuvieron que apagarlo. Aprenden del mundo. Otros no son tan evidentes. Por ejemplo, lo mismo pasó con el algortimo sexista de selección de personal de Amazon: contrataba a más hombres que mujeres y les daba los mejores puestos. Aprendió de lo que había, con las bases de datos existentes, y llegó a la conclusión de que ser hombre era una buena cualidad para ser un buen trabajador. Todo esto lo estamos descubriendo a posteriori y nos ayuda a ver nuestros propios sesgos ocultos. También ha resultado racista el algoritmo de la policía de Estados Unidos para predecir la delincuencia. Es tremendo que te digan que el algoritmo predice que vas a ser un criminal. Es así porque se basa en correlaciones pasadas de datos de delincuentes. El algoritmo ve el color de la piel, el barrio en que vives, los ingresos... que correlacionan con la delincuencia. Y que no te toque acabar en la cárcel solo por eso. 

"Vamos a ciegas. No tenemos acceso a la caja negra, al porqué y cómo una inteligencia artificial toma una decisión"

Las IA también toman decisiones. ¿Son realmente neutrales y objetivas?

Hoy por hoy las inteligencias artificiales no son más racionales. Tienen muchos sesgos y todavía no sabemos cuáles son. No tenemos siquiera acceso a la caja negra, al porqué y cómo han tomado la decisión. Vamos a ciegas. Primero no tenemos ni idea de cómo la programaron, cómo salió de fábrica (si nos quiere espiar para los rusos o Facebook) y si además aprende, al final no se sabe cómo toma la decisión. Y no debemos fiarnos. Habitualmente nadie ha programado ese sesgo. Creo que mucho del algoritmo de Facebook se les ha ido de las manos y es aterrador. Y no estamos hablando de consciencia; no la necesito para que esto haya que regularlo.

Uno de los mayores riesgos es delegar las decisiones. Asumir que una inteligencia artificial es mejor en algo que un humano o un grupo de humanos. ¿Se dará este choque?

Hay ya mucha gente que se fía ciegamente de la IA y no debería, aunque se pude equivocar, tiene sesgos, hay errores, aunque el error sea pequeño. Fiarte en exceso hace que manipulen tus decisiones. Es como si al comprar ropa te fiaras ciegamente del criterio de la dependienta, que no es el más neutral del mundo. Es muy peligroso sin saber qué hay por detrás.

Nos puede llevar también a ser dependientes, a dejar de tener la autonomía de saber calcular algo, conducir un vehículo o hablar otro idioma porque una máquina lo hace por nosotros, y mejor. ¿Qué papel le queda al ser humano? ¿Tendremos que reubicarnos?

Claramente, reubicarnos pero no sé hacia dónde. Cada vez somos más dependientes. Pensemos en el efecto Google, aprendemos dónde buscar más que conocimientos.

Vacunarse contra los ‘fakes’

‘Nuestra mente nos engaña. Sesgos y errores cognitivos que todos cometemos’. Es el título del último libro de Helena Matute, quien también ha estudiado a fondo por qué caemos en supersticiones y pseudociencias. Desde que andamos enredados en internet, no solo nos tragamos montones de ‘fake news’, sino que también los compartimos velozmente. ¿Por qué es tan fácil engañarnos? No es nada nuevo, "la tecnología solo lo amplifica". Lo que ocurre es que si lo que leemos o escuchamos "coincide con nuestras creencias previas, con nuestra visión del mundo, lo encajamos muy fácil". "El conocimiento, nuestras creencias y nuestra forma de pensar va creando una estructura y si te llega una cosa nueva que encaja, te la crees; si no encaja, te das cuenta". Hay experimentos donde la gente de derechas o de izquierdas se da cuenta o se traga una noticia falsa según perjudique a su ideología o a la contraria.

Muchas veces, los datos no bastan para convencer. Pesan más las emociones, las ideas preconcebidas, la primera impresión, quién te lo cuenta... Pero algo podemos hacer para evitar la desinformación. "Hay bastante investigación sobre ello", asegura Matute. Por ejemplo, "se está viendo que funciona bastante la inmunización: dar a la gente un poquito de desinformación, como en dosis bajas, para que se den cuenta y estén más alerta". También "está visto que hay que evitar usar las mismas asociaciones de palabras que los bulos que se quieren combatir. No decir ‘las vacunas no causan autismo’, sino ‘las vacunas salvan vidas’. Porque autismo y vacunas no tienen nada que ver". Y es muy importante saber que "si vas a quitarle una idea incorrecta a una persona, de alguna manera hay que darle algo con lo que llenar ese hueco, una alternativa".

-Ir al suplemento Tercer Milenio

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión