El debate sobre la posibilidad de atribuir algún tipo de personalidad jurídica a los robots ha saltado a la actualidad durante los últimos meses, para entusiasmo de los tecnólogos y pasmo de más de un jurista.
Se trata de un tema apasionante que ha sido objeto de análisis en el reciente primer congreso sobre aspectos legales de la robótica, organizado por la Fundación para la Investigación sobre el Derecho y la Empresa (FIDE).
El director del evento, Alejandro Sánchez del Campo, autor del conocido blog Replicante digital, ya se había manifestado meses atrás a favor de esta opción: “sugiero que empecemos a plantear la posibilidad de que estas máquinas puedan tener obligaciones o incluso algún tipo de personalidad reconocida legalmente. Puede parecer disparatado pero no debemos olvidar que el derecho tiene que adaptarse a la realidad.”
Y en su intervención inicial, Antonio Garrigues Walker, presidente de la Fundación Garrigues y que a sus ochenta y dos años puede presumir de una envidiable modernidad, hizo suya la propuesta al señalar que estamos asistiendo al nacimiento de un nuevo Derecho tecnológico y científico, en el que considerar la posibilidad de reconocer a los robots una “personalidad eléctrica”, con derechos y obligaciones específicos, no debería asustarnos. Esta posible personalidad, señaló, no sería una ficción muy diferente de la personalidad jurídica atribuida a diferentes entidades en nuestro ordenamiento desde hace mucho.
¿Qué es un robot?
Para situar el marco del debate, Juan Carlos Lorente, responsable de desarrollo de negocio de robótica de GMV, se ocupó de presentar con precisión lo que es un robot y los principales tipos que existen.
Según la RAE, un robot es una “Máquina o ingenio electrónico programable, capaz de manipular objetos” y realizar operaciones antes reservadas solo a las personas, añade. Este concepto es el actual, pero se trata de un concepto que evoluciona con el tiempo, y no se tiene claro lo que será un robot mañana. Pese a ello, no resulta fácil definirlos, porque un robot a veces es un producto y a veces parte de una solución.
Con todo, apuntó la existencia de tres tipos principales de robots: los industriales, los de servicios profesionales y los de servicio doméstico o personal. La robótica industrial, destinada a facilitar la fabricación de bienes fue el principio, pero se considera que el futuro estará en los robots de servicios
La posible regulación de la personalidad jurídica de los robots
Avanzando en el tema, Pablo García Mexía , profesor visitante de Derecho de internet en el College of William & Mary y Off counsel de Ashurst LLP, avanzó los posibles aspectos a tener en cuenta a la hora de regular estos derechos de los robots.
En principio, según la concepción civilista, solo el capaz es persona. Pero ¿puede haber entes que no sean persona? ¿Qué puedan contraer derechos y obligaciones, o comparecer en juicio o cometer un delito? ¿Cabe pensar en un Ente Capaz No Personal (ECNP), capaz de pensar, aprender, percibir, decidir y hasta sentir, al que pueda reconocerse una personalidad electrónica?
Según García Mexía esta regulación tendría sentido con dos finalidades principales: limitar los riesgos derivados del funcionamiento de estos sistemas y garantizar las responsabilidades derivadas de los daños que pudiesen causar con su funcionamiento.
¿Quiénes tendrían esa personalidad? Particularmente los entes técnicamente más complejos, aunque no está claro si este concepto implica necesariamente características antropomórficas.
¿Qué derechos se les podría reconocer? Desde luego no los constitucionales, que son propios de las personas, pero sí algunos derechos patrimoniales, con la finalidad de garantizar su posible responsabilidad por daños causados. Por esta razón, sí podrían disponer de algún tipo de tutela jurisdiccional.
¿Qué obligaciones podrían exigírseles como consecuencia de los derechos que se les reconocieran? Básicamente dos: previsibilidad de su actuación y responsabilidad civil por las consecuencias dañosas derivadas de sus actos (si bien se plantea también una responsabilidad fiscal como consecuencia del incumplimiento de obligaciones de ese tipo).
Finalmente García Mexía planteó el inquietante tema de qué sucederá si, como consecuencia del desarrollo de una superinteligencia artificial, un día ese tipo de entes llega a tomar autoconciencia de su existencia y realizar por tanto actos intencionales, con conciencia del bien y del mal. En esta situación podría ser más dudosa la negativa a reconocerles algún derecho de la personalidad.
Personalidad y capacidad jurídica "robótica"
El notario Francisco Rosales de Salamanca aportó otro enfoque al debate: una cosa es la personalidad y otra la capacidad jurídica.
En su opinión, reconocer derechos o personalidad jurídica a un robot no es algo particularmente complejo. En la actualidad ya se puede constituir una sociedad aportando un robot, señaló.
Los problemas que surgen son de tipo más práctico. Por un lado, el juicio de capacidad de un robot, que es algo que los notarios realizan cotidianamente respecto de las personas físicas, identificándoles y valorando su capacidad de obrar. En el caso de un robot el juicio sobre esa capacidad va a requerir analizar un software, y eso no lo puede hacer un notario.
Para empezar, señaló, el software de control de un robot es un sistema cerrado, en principio no se puede intervenir sobre él. ¿Qué problemas pueden causar en este sentido cuestiones como la obsolescencia tecnológica?
El problema es quien puede ejercer esos derechos del robot, con qué requisitos, en qué condiciones y con qué garantías. Y, además, hasta dónde llegan las responsabilidades de su fabricante, diseñador o propietario.
Por eso, la Propuesta del Parlamento Europeo sobre la materia se refiere a la necesidad de inscripción de estos sistemas en un registro y a la obligatoriedad de un seguro sobre su funcionamiento (por eso los seguros de responsabilidad civil van a experimentar un importante crecimiento en esta materia, ya que sin duda surgirán muchas problemas de responsabilidad civil relacionada con el uso de los robots).
Pero hay que tener en cuenta que este programa europeo intervendrán, en primer lugar, juristas generalistas, a continuación juristas especializados y finalmente informáticos “con nociones jurídicas”, lo cual no deja de ser un riesgo. Por eso conviene que los juristas tengan a su vez nociones informáticas, para poder comprender mejor de lo que se está hablando en cada momento.
Avanzando más en el debate, se llegó a la siguiente y trascendente cuestión.
El debate en torno al reconocimiento de responsabilidad civil o penal
Según la dogmática penal clásica, esta pregunta tiene una única respuesta: solo pueden cometer delitos las personas físicas (y muy recientemente, en determinados supuestos, también las jurídicas).
Así lo destacó Juan Pablo Nieto Mengotti, Fiscal, quien añadió a continuación que, no obstante, por medio de la figura de la autoría mediata, el responsable de los daños que pudiese causar un robot sería la cadena de sus responsables (propietario, programador, cuidador…). En estos casos, aunque no se puede delinquir se sabe a quién exigir la responsabilidad por los daños que causen.
La problemática que puede surgir en el ámbito procesal, si un robot causa un daño y se inician medidas cautelares penales contra su propietario o usuario, podría complicarse hasta extremos hoy casi inimaginables si un abogado se propusiera forzar la “declaración” de un robot en un juicio. El día en que ese hecho se produzca, si es que se produce alguna vez, las cosas habrán cambiado para siempre, apuntó.
Pero, sin llegar a esa compleja situación, pueden producirse otras intermedias, todavía inéditas pero no descartables de futuro, como que este robot puede servir como pieza de convicción y, por tanto, estar sujeto al trámite de inspección judicial.