Noticias JurídicasOrigen https://noticias.juridicas.com

Conocimiento Tribunas
07/07/2021 14:36:03 IRENE MORENO GARRIDO. JOSE M. GONZALEZ PELLICER. KENNEDYS LAW DERECHO DE LOS ROBOTS 11 minutos

E-personalidad y derecho de los robots

¿Es posible atribuir responsabilidad a una máquina? ¿Puede tener una máquina derechos y deberes? ¿O, al igual que con las personas jurídicas, debe culpabilizarse a las personas físicas que están detrás de la máquina? En esta tribuna tratamos la controvertida e-personalidad

Irene Moreno Garrido y Jose M. Gonzalez Pellicer

KENNEDYS LAW

 E-personalidad y derecho de los robots

Nuestra legislación es antropocéntrica. ¿Y cómo podría no serlo? Desde el siglo XVI se puso al individuo como centro del mundo destacando sus capacidades intelectuales y artísticas. Y, aunque siempre hay quien discrepe, sólo las personas están dotadas de libre albedrío y dignidad. Por eso sólo las personas son sujetos imputables titulares de derechos y deberes. 

Incluso el último de los «animalistas anti-especistas» tendría que reconocer que un orangután (del malayo «persona del bosque») tendría muchas dificultades para redactar el Libro Primero del Código Civil dedicado a la «Persona».

Y, aunque seguramente quería mucho a su perro, el inmortal jurista Bartolo de Sassoferrato nos recuerda, en todo caso, que las leyes surgen siempre hominum causa y que el objeto del Derecho es el ser humano.

Ser humano cuya personalidad (o aptitud para ser sujeto de derechos y obligaciones) viene dada por el nacimiento conforme disponen los arts. 29 y 30 del Código Civil, es decir, una vez producido el entero desprendimiento del seno materno. En definitiva, la personalidad es inherente a la persona nacida (no creada o fabricada). 

Personalidad que, si bien el ordenamiento jurídico niega al nasciturus (concebido y no nacido), se atribuye no obstante a esos seres ficticios (persona ficta) que denominamos «personas jurídicas».

Personas jurídicas que, con mayor o menor opacidad, esconden siempre detrás a personas físicas1. Personas físicas que, a la postre, son las únicas que pueden ser responsables. 

Porque, aunque puedan ser efectivamente castigados, ni el orangután malayo, ni el perro de Bartolo ni la persona jurídica pueden ser culpables por sí solos. 

Los culpables y responsables son siempre personas físicas, esto es, seres humanos con personalidad adquirida por nacimiento.

Sin embargo, aunque nos parezca increíble hoy, la realidad tecnológica apunta a que, en algún momento futuro, veremos robots artificiales (esto es, creados y no nacidos) sumamente sofisticados, inteligentes y autónomos. 

Y la cuestión estriba en si el legislador (como apunta el párrafo 59 f de la Resolución de 16 de febrero de 2017 del Parlamento de la UE sobre las normas de derecho civil de la robótica) reconocerá la llamada «e-personalidad» o «personalidad electrónica» de tales robots y les imputará una responsabilidad o culpabilidad propia. 

¿Es posible atribuir responsabilidad a una máquina? ¿Puede tener una máquina derechos y deberes? ¿O, al igual que con las personas jurídicas, debe culpabilizarse a las personas físicas que están detrás de la máquina?

Pisamos un terreno incierto más allá de las llamadas Leyes de Asimov, fecunda fuente de inspiración no sólo para autores de ciencia-ficción sino para el propio Parlamento Europeo (en su precitada Resolución de 2017), que consagran el temor instintivo hacia una inteligencia artificial potencialmente descontrolada y hostil para el ser humano2, concibiéndola como una nueva casta de sumisos siervos de la gleba3.

Desconfianza. Esa es la impresión que transmite el legislador europeo y es la misma impresión que transmiten los mitos clásicos. Desde el gigante-autómata Talos que ataca a los argonautas, hasta el híper-vigilante Argos Panoptes, que nunca dormía ni dejaba de espiar a los humanos con sus mil ojos, o la temible mujer artificial Pandora, que abre la caja del mal. 

La moraleja del mito de Pandora es inquietante: cometemos un grave error si esperamos lo mejor de esta fascinante tecnología. 

Y esa es la misma moraleja finalmente formulada en el Congreso de Inteligencia Artificial de 2017 (ASILOMAR AI PRINCIPLES4), cuando se nos advierte de que «la súper-inteligencia debería ser desarrollada únicamente en servicio de unos ideales éticos compartidos globalmente y para el beneficio de toda la humanidad más que para un estado u organización». No parece una advertencia baladí cuando quien la hace se llama Elon Musk o Stephen Hawking.

Es cierto que los robots irán ocupando esferas más personales y privadas de nuestra vida, e incluso hay personas que acaso tengan mayor aprecio hacia un robot que a sus vecinos o que deseen casarse con un robot5. Sin embargo, en nuestra opinión, las máquinas no pueden ser sujetos de derechos o deberes, al ser simples instrumentos creados por el hombre para su servicio. 

Y ello con independencia de que tales máquinas tengan, en el futuro, una súper-inteligencia artificial o autonomía. Autonomía que, en todo caso, por muy impredecible que pudiera ser, nunca podría equivaler a la voluntad. 

Reconocer personalidad a las llamadas «personas no humanas» (sean animales o robots), sería deshumanizar el Derecho y con ello, probablemente, a la propia persona. 

Reduciéndolo al absurdo sería como admitir a un perro, a un orangután, al iRobot Roomba, a Alexa o a la Thermomix en el club de los Derechos Humanos (divertido, pero inútil y además, probablemente, problemático). 

Simplemente imaginemos un robot con derecho a la presunción de inocencia o derechos laborales. Ello entraría en flagrante contradicción con la Carta de los Derechos Fundamentales de la UE y la Convención para la Protección de los Derechos Humanos y las Libertades Fundamentales. 

Y ese es el motivo por el cuál más de 200 expertos de 14 países europeos han dirigido una carta abierta al presidente de la Comisión Europea, mostrando su rechazo a que la Directiva sobre Robótica e Inteligencia Artificial que prepara la UE otorgue «personalidad» a las máquinas. 

Del mismo modo que 285 europarlamentarios votaron en contra del precitado párrafo 59f de la Resolución de 16 de febrero de 2017 del Parlamento de la UE sobre las normas de derecho civil de la robótica6.

El hecho de que la máquina tenga capacidad de análisis debido a un proceso de machine learning (unsupervised o supervised) que le otorgue aparentes capacidades intelectivas o volitivas propias, exorbitantes incluso a las del común de los mortales, no las convierte en humanas sino en súper humanas y, por lo tanto, hay que prever un modo de controlarlas.

Un robot no es más que una máquina artificialmente animada. Puede ser más inteligente que muchos humanos (sobre todo en comparación con aquellos que llevan una existencia reptiliana sin usar jamás el neocórtex), pero la inteligencia (para devorar datos extrayendo patrones y haciendo predicciones) y la posibilidad de optar entre varias alternativas (que algunos confunden con voluntad) no lo convierten en humano. Todavía no se ha dado ese «salto» cualitativo.

Por ello, el robot sigue siendo una máquina-instrumental creada por humanos para desempeñar una tarea específica. Sus decisiones no son libres, son fruto de un sistema fabricado por el hombre que, a la postre, es el responsable de su creación.

Una máquina, como una pistola o un perro de presa, tampoco puede ser culpable. Peligrosa sí. Culpable no7. No tiene animus. No posee voluntad. En el mejor escenario, sus algoritmos le permiten «elegir» entre varias alternativas, aprendiendo de experiencias acumuladas y de correlaciones entre bases de datos, pero siempre de conformidad con rutas lógicas marcadas por un programador perfectamente humano.

Al igual que ha sucedido con las personas jurídicas, el reconocimiento de una cierta personalidad ficticia artificial no puede suponer una excusa para eximir a las personas físicas que se ocultan tras ella. 

Si reconocer la culpabilidad de un robot es conveniente para condenar a quien lo fabrica, diseña, programa, controla o explota, entonces tendremos una ficción útil (para remover los obstáculos que impiden un resultado justo, dando por existente un hecho inexistente, como la culpabilidad de una máquina). 

Y así quizá podrán agilizarse las compensaciones del seguro, en lugar de enzarzarse en complejas discusiones legales y periciales acerca de si el responsable de los daños causados por un robot es el fabricante, el proveedor de software o el usuario.

Esa motivación es la que parece guiar la iniciativa del Parlamento Europeo. A saber, dar prioridad a la compensación de la víctima, no enredarse en saber quién tuvo la culpa. Sobre tal base consideran algunos que la mejor solución es regular la responsabilidad civil de los robots.

Pero frente a tal bienintencionada iniciativa se levantan aquellos que consideramos que:

(a) se está sobrevalorando la inteligencia actual de los robots (cuya autonomía aún está «en pañales»);

(b) esa «e-personalidad» no puede servir como excusa para aumentar la opacidad que, de por sí, ya produce la black box matemática de los algoritmos, o para amortiguar la responsabilidad de las personas físicas. De hacerse así, los mayores beneficiarios serían los fabricantes que se zafarían de la responsabilidad de los daños causados por las máquinas; 

(c) bastaría con sentar un régimen de responsabilidad objetiva del fabricante o explotador (desligada de la culpa) para garantizar la indemnidad de las víctimas.

Con ello queremos decir que el robot puede tener el cerebro de Stephen Hawking, explorar el espacio, descender al centro de la Tierra o desatar un bombardeo táctico en cualquier región del mundo pero, al final, no será sino una máquina con ínfulas. Y a nadie en su sano juicio se le ocurriría reconocer en la actualidad «e-personalidad» a tal artefacto.

Pero quizá nuestros prejuicios actuales nos impiden aceptar la realidad del mañana. Un mañana en el que es posible que surjan nuevas instituciones jurídicas para tratar de encajar la convivencia entre humanos, humanoides y ciber-humanos (ciborgs). 

En este sentido, el posthumanismo reventaría las costuras de los vigentes códigos normativos, cambiando el concepto mismo de identidad y personalidad humana. Autores como Jordi Vallverdú, filósofo de la computación y bioética en la UAB, se muestran a favor de que se reconozcan derechos a los robots porque precisamente su aspiración profesional es conseguir máquinas tipo «Nexus-9» con conciencia y emociones. 

Dicho lo cual, los autores son conscientes de que, al paso que vamos, el Derecho de los Robots es otra área de negocio en la que nuestro omnipresente y omnipotente legislador no tardará en adentrarse, simplemente porque el viejo derecho humano no será tan rentable. 

Por otro lado, constatamos que la visión utópica de Asimov (un robot no hará daño a un humano), contradicha por los citados mitos clásicos, ha sido ya desbordada por compañías como Boston Dynamics8, que trabajan activamente en el desarrollo de «LAWS» (Lethal Autonomous Weapons Systems), cuya regulación no es sólo deseable sino imperativa, para evitar una enloquecida carrera armamentística, como recomiendan los Principios ASILOMAR9

Hablando de LAWS, quizás al lector le venga a la mente aquél ominoso, ubicuo e intangible personaje llamado Skynet, ideado por James Cameron en su película Terminator. Lamentablemente Skynet, como sucede con Internet, no tendría un botón de apagado. 

No obstante, la otra moraleja que nos deja la caja de Pandora es que la esperanza es lo último que se pierde y, por tanto, dadas las potenciales consecuencias, confiamos en tener regulada y vigilada a la máquina antes de que ella nos controle y regule a nosotros.
 


[1] Del Moral García, Antonio, La responsabilidad penal de las personas jurídicas: Societas delinquere non potest…, sed puniri potest!. https://www.abogacia.es/actualidad/noticias/la-responsabilidad-penal-de-las-personas-juridicas-societas-delinquere-non-potest-sed-puniri-potest/

[2] Las tres Leyes de Asimov son: 1ª Un robot no hará daños a un ser humano o, por inacción permitir que un ser humano sufra daños. 2º Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la primera Ley. 3ª Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda ley.

[3] La palabra “robot”, acuñada por el escritor checo Karel Capek, deriva de la forma “robota” (término del antiguo eslavo que significa "esclavo").

[4] https://futureoflife.org/ai-principles/

[5] https://www.lavanguardia.com/vida/20170404/421432384087/ingeniero-chino-mujer-robot.html

[6] https://www.lavanguardia.com/tecnologia/20180417/442631680924/derechos-robots-ue-persona-electronica-ia.html

[7] https://noticias.juridicas.com/actualidad/noticias/11479-iquest;puede-un-robot-tener-responsabilidad-civil-o-penal/

[8]

[9] https://international-review.icrc.org/articles/stepping-back-from-brink-regulation-of-autonomous-weapons-systems-913

Te recomendamos