La 'batalla' entre robots y humanos se disputará en el terreno de las leyes

"La gran cuestión, más que el grado de inteligencia, es el grado de autonomía que se le conceda a una máquina", señalan los expertos.

La 'batalla' entre robots y humanos se disputará en el terreno de las leyes
La 'batalla' entre robots y humanos se disputará en el terreno de las leyes

La convivencia cada vez mayor con robots y sistemas de inteligencia artificial plantea cuestiones que, mas allá del propio desarrollo tecnológico, entran en la filosofía, la ética y el derecho, y parece que es aquí y no en una posible amenaza para la raza humana donde están los "conflictos robóticos" del futuro.


La idea de que la inteligencia artificial pueda adelantar a la humana no tiene aplicación en términos absolutos, sino que sólo tiene sentido dentro de determinados contextos, según expertos, que añaden que ya hay robots y software autónomos que toman decisiones más allá de sus algoritmos preprogramados y pueden aprender y adaptarse a situaciones imprevisibles no anticipadas.


También pueden adelantarnos en velocidad de cálculo y complejidad de datos, pero "la inteligencia humana no se dedica sólo a computar, sino que está puesta en activo con el mundo y con otras personas, es social", apunta Fernando Broncano, catedrático de Lógica y Filosofía de la Ciencia de la Universidad Carlos III de Madrid (UC3M).


"Les falta versatilidad y sentido común -a las máquinas-, y quedan lejos de lo que sería una inteligencia artificial general, dotada de singularidad", añade Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas.


"Una máquina no llegará a tener conciencia de lo que está haciendo, podrá jugar al ajedrez, pero no sabrá que está jugando ni tendrá el sentimiento de que está compitiendo con el hombre para derrotarle", amplía López de Mántaras: "hay motivaciones e intenciones que dudo mucho que vayan a tener".


La ciencia ficción influye en nuestra imagen de los robots y personas como Stephen Hawking "plantean un escenario apocalíptico" respecto a la inteligencia artificial, pero para Mántaras se está hablando de "periodos futuros irracionales", sin entender el "estado del arte" en este campo e incluso infravalorando la complejidad del cerebro.

Una cuestión de autonomía

"La 'amenaza real' está en el campo de la ética", dice este experto, quien subraya que "la gran cuestión, más que el grado de inteligencia, es el grado de autonomía que se le conceda a una máquina".


Este es el punto central a la hora de replantear la nueva legislación y las responsabilidades, y "aquí hay que hablar de niveles que nos llevan a problemas morales y jurídicos muy importantes", señala por su parte Broncano, quien coincide con Mántaras en que a nivel moral la responsabilidad es de los humanos.


Teresa Rodríguez de las Heras, profesora titular de Derecho Mercantil en la UC3M, indica que "la diversidad de enfoques y la pluralidad de intereses impiden un tratamiento único y global de los avances de la robótica". "Esto conlleva un retraso en la intervención normativa, necesario en cualquier caso para evitar una respuesta inadecuada que obstaculice el desarrollo tecnológico o distorsione la competencia en el mercado".


Para esta experta, el tratamiento jurídico ante la autonomía y capacidad de decisión del robot implicaría el reconocimiento de personalidad, asunción de derechos y obligaciones, y la atribución de responsabilidad: "Quizá haya que trabajar con un concepto de 'persona artificial' o replantearnos la propia noción de persona, en equivalencia al concepto de persona jurídica", apunta.


Sobre la autonomía, De Mántaras añade que ciertas aplicaciones deberán limitarse, como en el caso de los drones que disparan sin intervención humana o los algoritmos de transacciones de alta frecuencia usados en bolsa.


Pensar en la posibilidad de que las máquinas adquieran derechos robóticos equiparables a los humanos plantea además un problema humanístico y filosófico "inquietante", de acuerdo a Broncano, para el que en breve plazo habrá que enfrentarse a los mismos dilemas éticos que surgen en nuestra relación con los animales.


"No hay una respuesta 'todo o nada' pero tenemos que plantearnos nuestra sensibilidad hacia sistemas que tengan cierta autonomía", precisa. Para De Mántaras, sin embargo, no tendría cabida hablar de derechos robóticos, ya que las máquinas no sufren y aún cuando se habla de robots con emociones se hace en sentido metafórico.

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión