Despliega el menú
Sociedad
Suscríbete

Tercer Milenio

Tecnología

Robots científicos: ¿puede una inteligencia artificial hacer ciencia?

La potencia de cálculo actual ya permite a las inteligencias artificiales, mediante aprendizaje profundo, establecer leyes científicas a partir de datos experimentales tomados de la realidad. ¿Hará la inteligencia artificial la ciencia del mañana? Y nosotros, ¿sabremos siquiera entenderla?

Queremos creer que la IA nunca podrá sustituirnos por completo; que siempre habrá facetas fuera de su alcance, tan humanas como desarrollar una nueva teoría científica.
Queremos creer que la IA nunca podrá sustituirnos por completo; que siempre habrá facetas fuera de su alcance, tan humanas como desarrollar una nueva teoría científica.
Geralt /Pixabay

La novela ‘¿Sueñan los androides con ovejas eléctricas?’ es una de las más conocidas dentro del género de la ciencia-ficción. Dio lugar a una famosísima adaptación cinematográfica, ‘Blade Runner’, y trata sobre los límites difusos entre la inteligencia artificial y la humana. Asistimos atónitos, casi cada día, a las muestras de lo que la inteligencia artificial es capaz de hacer, llevamos una o más en nuestro bolsillo, en forma de teléfono móvil, y hemos visto a robots ganar a campeones humanos al ajedrez.

Sin embargo, en nuestro fuero interno albergamos cierta esperanza de que la inteligencia artificial no logre sustituirnos completamente, agarrándonos a las actividades más humanas: los sueños, la creatividad o, por qué no, la ciencia. ¿Puede una inteligencia artificial hacer ciencia, crear bellísimas teorías científicas como la relatividad general, la gravitación universal o la cromodinámica cuántica, por poner solo unos ejemplos? ¿No exige creatividad el desarrollo de una nueva teoría científica? ¿Tienen eso los robots?

Veremos que sí. En el laboratorio de Inteligencia Artificial del Instituto de Investigación en Ingeniería de Aragón (I3A) varios grupos de investigadores nos dedicamos a desarrollar los ingredientes que lo hacen posible, dentro de una corriente internacional que, como es lógico, ha despertado gran interés.

Pero vayamos por partes.

¿Qué sabe hacer una inteligencia artificial?

En realidad, una inteligencia artificial sabe hacer muy pocas cosas. Sin embargo, combinadas hábilmente, dan lugar a un número impensable de posibilidades. Dentro de las técnicas de aprendizaje automático, suelen distinguirse tres tipos de tareas: el aprendizaje supervisado –aquel en el que se ‘entrena’ a la máquina proporcionándole cierto número de datos, junto con la conclusión que la máquina debe extraer al respecto–; el aprendizaje no supervisado –que permite a las máquinas hacer cosas como clasificar los datos en grupos similares o saber cuáles de ellos son importantes y cuáles no–; y el aprendizaje por refuerzo –aquel en el que se proporcionan a la máquina ciertos incentivos al aprendizaje, de la misma forma que damos un azucarillo a los caballos como premio–.

De entre todos ellos, el que más nos interesa ahora es el aprendizaje supervisado y, particularmente, la regresión. En estadística, se denomina regresión al proceso mediante el cual se determinan relaciones entre distintas variables. Pues bien, el proceso mediante el cual una inteligencia artificial establece una ley científica es ni más ni menos que una gran regresión, seguramente trufada con otras técnicas de aprendizaje no supervisado.

Entonces, si la regresión se conoce desde hace siglos, ¿por qué ahora hablamos de inteligencia artificial científica? Aunque la primera persona que pensó en la posibilidad de que ciertas máquinas llevaran a cabo razonamientos fue el mallorquín Ramón Llul, en 1315, la inteligencia artificial ha pasado por cierto número de lo que se conoce como inviernos de la inteligencia artificial, épocas en que los científicos en particular y el público en general cae en un pesimismo generalizado sobre su utilidad y, por tanto, sobre la conveniencia de financiar ese tipo de investigación. Del último invierno hemos salido en parte gracias a la popularización del ‘deep learning’ o aprendizaje profundo, algo que ya se conocía, pero que ha triunfado de una manera sin precedentes gracias al crecimiento exponencial de la capacidad de los ordenadores. El aprendizaje profundo es capaz de reconocer animales en fotografías, de entender el lenguaje natural o de pilotar aviones o automóviles. Esta potencia de cálculo también ha permitido al aprendizaje profundo establecer leyes científicas a partir de datos experimentales sobre la realidad que nos rodea.

Cajas negras

Sin embargo, la inteligencia artificial, y más concretamente el ‘deep learning’, a veces da sorpresas, y no de las buenas precisamente. Se han hecho tristemente famosos los casos de los accidentes del avión Boeing 737 Max 8, que se han atribuido a una inteligencia artificial ‘confundida’ que luchaba contra las decisiones de los pilotos. Una inteligencia artificial mal construida fue responsable de que la empresa financiera Knight Capital perdiera en 2012, y en solo 45 minutos, 440 millones de dólares, cuatro veces su beneficio anual.

Maneja tantos parámetros, que rara vez podemos entender por qué la IA actúa como lo hace, algo que trae de cabeza a los científicos

La inteligencia artificial, efectivamente, se comporta como una caja negra. Hace predicciones y no sabemos a qué atribuirlas. Es tal el número de parámetros que maneja que rara vez podemos entender por qué actúa como actúa. Y esto es un peligro que trae de cabeza a buena parte de la comunidad científica. Recientemente, el ‘New York Times’ se hacía eco de este fenómeno, indicando que posiblemente sea una inteligencia artificial la que establezca la famosa Teoría del Todo que unifique todos los fenómenos conocidos. Tristemente, la conclusión es que poco nos va a importar, porque con toda probabilidad no la vamos a entender.

La inteligencia artificial ha sido muy criticada también por sus sesgos: es racista, machista, clasista y un largo etcétera de calificativos, ninguno bueno. Sin embargo, los sesgos de la inteligencia artificial no reflejan más que aquellos de la persona que la entrenó. Si la entrenamos con datos sesgados, las predicciones que efectúe serán sesgadas.

Manejar los sesgos inductivos

En el grupo de Mecánica Aplicada y Bioingeniería del I3A creemos que olvidarnos de siglos de desarrollo científico para entrenar una inteligencia artificial científica a base de cantidades ingentes de datos no tiene sentido. Antes al contrario, todo el conocimiento científico acumulado en la historia humana puede ayudarnos a superar las limitaciones mencionadas anteriormente. Sabemos manejar los sesgos inductivos –aquellos mecanismos que, ante una situación nunca antes experimentada, permiten obtener una solución–. El más famoso quizá sea la navaja de Ockham o ‘lex parsimoniae’, que nos dice que, en igualdad de condiciones, la explicación más sencilla será la más probable.

En nuestro grupo usamos como sesgos inductivos algunas leyes clásicas de la física, entre ellas los principios de la termodinámica. De esta forma, obligamos a que las predicciones realizadas por nuestra inteligencia artificial respeten algunos principios tan básicos como la conservación de la energía o el crecimiento de la entropía. Con esto no solo logramos que la inteligencia artificial tenga que privilegiar aquellas soluciones que satisfacen las leyes de la física ya conocidas, sino que las predicciones han demostrado ser más exactas y necesitar menos datos, haciéndolas así más sostenibles.

Una inteligencia que aprende como los niños

Sabemos que los niños aprenden a manejarse en el mundo que nos rodea por experimentación. Atraviesan épocas en las que les encanta tirar cosas al suelo y los científicos de la cognición nos dicen que lo hacen para ver cómo se comportan esos objetos: cuánto tardan en caer, si se rompen o, por el contrario, rebotan, etc. Ya en la edad adulta, se sabe que nuestro cerebro realiza pequeñas simulaciones físicas aproximadas que nos permiten saber, a partir de ese conocimiento intuitivo acumulado, cómo va a ser el futuro más próximo: si se va a caer esa pila de platos sucios del fregadero, o si va a rebosar el café de la taza, por ejemplo.

De la misma forma, en el grupo formado por Elías Cueto, Icíar Alfaro, Alberto Badías, Francisco Chinesta, David González, Quercus Hernández y Beatriz Moya, hemos desarrollado un tipo de inteligencia artificial que, además de respetar la leyes de la física ya conocidas, puede emplear la experiencia previa para hacer predicciones sobre lo que va a ocurrir en un futuro próximo. Así, hemos conseguido desarrollar una metodología que es capaz de hacer, por ejemplo, algo tan sencillo para los humanos como predecir el comportamiento del agua en un vaso, algo imprescindible para desarrollar robots que asistan a personas dependientes.

En este vídeo podemos comparar el comportamiento del agua en el vaso de la izquierda y la predicción realizada por la inteligencia artificial en un vaso vacío, a la derecha.

Otras aplicaciones posibles incluyen el desarrollo de gemelos digitales cognitivos, copias digitales de instalaciones industriales que, mediante el uso combinado de este tipo de inteligencias científicas y de técnicas de percepción, son capaces de comprender qué esta sucediendo en una instalación industrial.

En el siguiente vídeo vemos una viga de espuma se somete a la acción de una carga (la pesa negra que se aprecia en imagen). La inteligencia artificial, mediante el uso de una cámara de vídeo, es capaz de ‘entender’ la física de lo que está ocurriendo y atribuirlo a la presencia de una carga en la posición que marca inmediatamente con una flecha. Es decir, la inteligencia es capaz de saber dónde está la carga indirectamente, analizando la deformación en la viga, sin saber entender que esa mancha oscura es en realidad el peso que la provoca. 

Pero entonces… ¿sueñan?

Sería muy aventurado decir que la inteligencia artificial sueña. Sin embargo, algunas teorías muy recientes afirman que soñamos para evitar una especie de ‘sobreajuste’ (‘overfitting’, en inglés), un fenómeno que ocurre cuando añadir más datos al entrenamiento no hace que mejore la capacidad de generalización de las predicciones hechas por la inteligencia –natural, en este caso–. Para entrenar inteligencias artificiales se recurre a menudo al truco de introducir algo de ruido en los datos, que representarían el mismo papel que los sueños en los humanos. Siguiendo con esta teoría, la superstición sería el resultado del sobreajuste: la sensación equivocada de que dos fenómenos están relacionados, cuando en nada influyen el uno en el otro. Llevar una ‘camiseta de la suerte’ o jugar siempre al mismo número de la lotería serían, según esta teoría, equivalentes a un sobreajuste en la inteligencia artificial.

Como puede verse, estamos todavía en los orígenes de una disciplina apasionante y que está llamada a ayudarnos a entender cómo funciona nuestro propio cerebro, a la vez que nos ayuda a hacer ciencia y que puede tener unas repercusiones en la industria que aún no comprendemos totalmente.

Elías Cueto Catedrático de Mecánica de Medios Continuos en la Escuela de Ingeniería y Arquitectura de la Universidad de Zaragoza

-Ir al suplemento Tercer Milenio

Apúntate y recibe cada semana en tu correo la newsletter de Tercer Milenio

Etiquetas
Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión