Tercer Milenio

En colaboración con ITA

Antoni Gomila: «¿Rechazaremos los robots demasiado humanos?»

None

Antoni Gomila intervino en el Ateneo del CPS de Zaragoza
antoni gomila
JAVIER BONA

CATEDRÁTICO del departamento de Psicología de la Universidad de las Islas Baleares, es doctor en Filosofía. TRABAJA en el ámbito de las ciencias del conocimiento, incluida la robótica cognitiva. CLASIFICA los problemas éticos que genera la robótica cognitiva en dos categorías: deontología de la ingeniería y ética robótica propiamente dicha.


PREGUNTA ¿Cuál es la preocupación moral central que genera la robótica cognitiva?

RESPUESTA La interacción entre humanos y máquinas. Según los robots se vayan haciendo más autónomos e introduciendo en nuestras vidas, se podrá generar la ilusión de interacción, se les podrá tomar por personas, con lo que eso supone de atribución de responsabilidad, vinculación afectiva, relaciones de cooperación y confianza, etc. La tendencia a una autonomía creciente nos obliga a reflexionar sobre lo que eso supondría.


P. Al clasificar los problemas éticos de la robótica cognitiva, ¿se podría hablar, por separado, de deontología ingenieril y ética robótica en sí?

R. Pues sí, es una buena distinción. Es preciso garantizar la robustez y fiabilidad de los dispositivos, pero también habría que preocuparse por si su uso puede generar problemas. A eso lo podemos llamar ética de la ingeniería. La ética robótica estaría interesada en desarrollar sistemas de control para robots que aseguraran que su creciente autonomía no supondrá una amenaza para los humanos, primero, y dotarles a la larga de comprensión moral, de momento basada en principios regulados.


P. ¿Sirven aún, como base ética, las leyes de la robótica de Asimov?

R. Ya Asimov demostró los ‘agujeros’ de sus leyes. ‘No dañar a un humano’ presupone que el robot distinguirá humanos de no humanos, pero eso no es algo evidente. Además, provocar daño puede ser el único modo de salvarle –por ejemplo, una cirugía–. Hace falta un enfoque diferente. Hoy, en el contexto militar, se trabaja en un controlador que implemente los principios normativos de la guerra justa y la Convención de Ginebra, como el principio de discriminación –no atacar a civiles– o de proporcionalidad –no usar más fuerza de la necesaria–. Aunque estamos lejos de saber cómo conferir comprensión moral a un sistema cognitivo artificial, se avanza en conseguir sistemas que no cometan barbaridades, torturen o disparen contra civiles.


P. La futurible comprensión moral de los robots, ¿iría aparejada a la existencia de emociones?

R. El enfoque más avanzado, la ‘arquitectura híbrida’ de Ronald Arkin, no sirve para proporcionar comprensión moral, sino para garantizar que el robot no hace cosas moralmente inaceptables. Esa extraña combinación de emoción y normatividad que nos caracteriza parece ser necesaria para la comprensión moral. Así lo evidencia el hecho de que sujetos sin emociones, como los psicópatas, actúen amoralmente. El campo de las emociones artificiales es también muy activo hoy día, pero más centrado en el reconocimiento y la simulación que en la reproducción.


P. ¿Cómo se podrá garantizar que máquinas cada vez más autónomas no se nos vayan de las manos?

R. Esta es la pregunta del millón; el reto contemporáneo, en un doble sentido. Por una parte, ya está claro que la estrategia de la programación exhaustiva no nos lleva muy lejos –el caso más claro es la dificultad para desarrollar programas de traducción automática–. Por otra, sistemas cognitivos naturales como el humano tienden a cometer errores o transgresiones morales. Resulta atractivo pensar en sistemas con garantías suficientes, que pudieran evitar tales limitaciones humanas, al modo del Dr. Spock de ‘Star Trek’, aunque también hay quien teme que los humanos vayan a rechazar un sistema artificial, cuando empiece a resultarnos demasiado humano. Veremos.


P. Los estudios sobre moralidad en la robótica, ¿cómo pueden a su vez ayudarnos a entender nuestra propia moralidad?

R. Eso ocurrió al diseñar programas que jugaran al ajedrez. Hubo que entender primero cómo jugamos los humanos. En general, cuando tratamos de simular una competencia humana, necesitamos entenderla primero.


P. El miedo a la máquina como monstruo potencial, ¿acabará limitado el desarrollo de la robótica?

R. Parece improbable. En el Romanticismo se veía la tecnología como muestra de las pretensiones humanas de igualarse a dios, y por tanto, origen de desastres –como en los casos de Frankenstein o el Doctor Fausto–, pero nuestra época es la del desarrollo tecnológico. Los límites de la robótica cognitiva parecen deberse más bien a las dificultades técnicas que supone el desarrollo de capacidades cognitivas no orgánicas.