La Facultad de Derecho de la Universidad de Granada será el escenario de la Jornadas Internacionales ‘Desafíos jurídicos de la IA’, que se llevarán a cabo del 30 de septiembre al 2 de octubre. Este evento está organizado en colaboración con la Fundación para la Magistratura y respaldado por Aranzadi LA LEY como medio oficial.
El encuentro tiene como objetivo reflexionar sobre los retos y oportunidades que la inteligencia artificial plantea para el ámbito jurídico, desde una perspectiva multidisciplinar y crítica que sirva de formación para jueces y magistrados españoles de todos los órdenes jurisdiccionales.
El autor, José Antonio Castillo Parrilla, participará en una mesa redonda donde se discutirá sobre algoritmos públicos (y privados) como el Caso Deliveroo, compartiendo panel con Oscar Cordón García, Catedrático de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada e Investigador del Instituto DaSCI que hablará sobre superposición craneofacial de cadáveres, Jesús Jiménez López, director del Consejo de Transparencia y Protección de Datos de Andalucía y moderada por Luis Miguel García Lozano, profesor Derecho Administrativo Universidad de Granada.
Las jornadas contarán con la participación de expertos nacionales e internacionales en diferentes campos relacionados con la IA y el derecho, con la intención de crear un espacio de reflexión e interacción técnico-jurídico de carácter transversal.
La inauguración del evento tendrá lugar el 30 de septiembre con la presidencia de José María Páez Martínez-Virel, vocal del Consejo General del Poder Judicial y Presidente de la Comisión de Modernización e Informático del Consejo General del Poder Judicial, Enrique Herrera Viedma, vicerrector de Investigación y Transferencia de la Universidad de Granada; Lorenzo del Río Fernández, Presidente del Tribunal Superior de Justicia de Andalucía; Juan Ángel Moreno García, Director General de la Fundación para la Magistratura y Magistrado y Vito Rafael Epíscopo Solís, Concejal de Recursos Humanos, Organización, Ciudad Inteligente, Digitalización e Innovación de la ciudad de Granada.
La ponencia inaugural correrá a cargo de Moisés Barrio Andrés, letrado del Consejo de Estado sobre “Inteligencia artificial y Derecho: un necesario y urgente diálogo”.
El programa incluye mesas redondas sobre temas cruciales como los retos jurídicos de la IA, la transformación digital de la Justicia y la gobernanza, compliance y accountability en el uso de la inteligencia artificial.
El evento culminará el miércoles, 2 de octubre con la presentación de un kit de herramientas globales sobre la IA y el estado de derecho para el poder judicial y las directrices para el uso de sistemas de IA por los operadores judiciales, la mesa redonda objeto de este texto y una ponencia sobre sostenibilidad ambiental e IA.
Desarrollo del caso Deliveroo
La sentencia del Tribunal Ordinario de Bolonia de 31 de diciembre de 2020 (Caso Deliveroo) fue una de las primeras en tratar un caso relativo a los (mal) llamados riders, y ello desde una doble perspectiva: en relación con el carácter laboral o no de la relación contractual entre el porteador y la plataforma, y en relación con la situación jurídica y los efectos de los algoritmos, particularmente en relación con la discriminación en las condiciones de acceso al trabajo. La sentencia reconoce el carácter laboral de la relación entre riders y plataformas, en línea con lo defendido por la sentencia del Tribunal Supremo de 25 de septiembre de 2020, y por la disposición adicional 23ª LET.
La plataforma Deliveroo utiliza un doble sistema de acceso al trabajo: SSB o self-service booking, y free-log-in. El sistema free-log-in permite al rider acceder en cualquier momento a la plataforma e inscribirse en lo que quede en ese momento. Se trata de un sistema residual, ya que el principal es el sistema SSB. El sistema SSB permite al rider acceder a la plataforma para reservar franjas horarias de forma anticipada, pudiendo elegir tanto horarios como área o áreas de trabajo disponibles. La plataforma divide discrecionalmente las zonas de trabajo según el área de trabajo y el perímetro municipal u otras circunstancias relevantes. Los trabajadores pueden entrar cada lunes para reservar sus horarios de trabajo en tres franjas (11h, 15h y 17h) según la puntuación que tengan en el ranking de Deliveroo y de la que se encarga un algoritmo llamado “Frank”. La puntuación de los riders depende de dos índices: fiabilidad y disponibilidad. El índice de fiabilidad tiene en cuenta el número de ocasiones en que el rider no cumple con una sesión de trabajo previamente reservada (a través de SSB). Se considera a efectos de valorar la fiabilidad que constituye un incumplimiento no haber iniciado sesión de trabajo durante los primeros quince minutos de la franja horaria reservada (para lo cual debe encontrarse el rider físicamente dentro del área donde va a repartir). El índice de disponibilidad tiene en cuenta el número de veces que el rider está disponible en los horarios de mayor demanda (20 a 22h de viernes a domingo).
Los demandantes consideran que los criterios del algoritmo son discriminatorios, porque en la práctica desincentivan o impiden que los riders ejerzan su derecho a la huelga y porque no tiene en cuenta causas justificadas de ausencia del puesto de trabajo (únicamente se contemplaban como causas justificadas un accidente in itinere o un problema técnico de la plataforma). Los argumentos de defensa de Deliveroo son que: (1) el sistema SSB es sólo una de las dos opciones para acceder al trabajo en la plataforma, (2) no hay un mínimo de horas que deba cumplir el rider, (3) si se cancela la reserva con 24 horas de margen no tiene impacto negativo en la puntuación, y (4) que el algoritmo es ajeno al sistema de puntuación.
Atendiendo a las de las partes, la quaestio litis puede situarse en la discriminación en el entorno laboral, si admitimos, si admitimos el carácter laboral de la relación entre plataforma y riders, como hace el TO de Bolonia, nuestro TS y la reforma de la llamada “Ley Rider”. Sin embargo, es importante también prestar atención a la necesaria transparencia y al riesgo que implica el uso de este tipo de sistemas IA en el entorno laboral.
En cuanto al funcionamiento de los algoritmos, el TO de Bolonia considera que las condiciones de puntuación de los riders provocan una discriminación indirecta debido a que las condiciones que el algoritmo ejecuta no tienen en cuenta causas de asistencia justificada como por ejemplo organización de huelgas o enfermedad. Para eliminar estos efectos discriminatorios Deliveroo debe a juicio del Tribunal implementar cambios en los parámetros de funcionamiento del algoritmo, de manera que no se penalice ni directa ni indirectamente a los trabajadores (por ejemplo, penalizando no acudir a la sesión de trabajo sin contemplar que puedan alegarse ciertas causas justificativas).
Este caso ya fue tratado en su momento. Sin embargo, tiene interés observarlo hoy a la luz de algunas disposiciones del Reglamento de Inteligencia Artificial (RIA). El RIA considera de alto riesgo los sistemas de IA que se utilizan en los ámbitos de empleo, la gestión de trabajadores y el acceso al autoempleo, en particular y entre otras, la asignación de tareas a partir de comportamientos individuales, la supervisión o evaluación de las personas en el marco de las relaciones contractuales (Considerando 57 y Anexo III, apartado 4.b). También se consideran de alto riesgo (apartado 5.a Anexo III RIA) los “sistemas de IA destinados a ser utilizados por las autoridades públicas o en su nombre para evaluar la admisibilidad de las personas físicas para beneficiarse de servicios y prestaciones esenciales de asistencia pública, incluidos los servicios de asistencia sanitaria, así como para conceder, reducir o retirar dichos servicios y prestaciones o reclamar su devolución”.
Aquellos sistemas considerados de alto riesgo deben cumplir con los requisitos establecidos en el Capítulo III RIA, relativos a la calidad de los datos, la documentación, transparencia y trazabilidad de la información, la necesidad de supervisión humana del sistema IA, la incorporación de un sistema de gestión de riesgos, o la precisión, solidez y ciberseguridad del sistema IA, entre otros aspectos. Destacaremos dos: la obligación de desarrollar un sistema de gestión de riesgos y las obligaciones de transparencia.
El sistema SSB de Deliveroo, como sistema de alto riesgo, deberá establecer, implantar, documentar y mantener un sistema de gestión de riesgos para los derechos para la salud, seguridad y derechos fundamentales de los riders así como adoptar medidas adecuadas para gestionar y mitigar los riesgos. Un sistema como el SSB puede afectar a derechos como el derecho al trabajo (art. 35 CE), pero también a la salud y seguridad de los trabajadores si éstos se ven forzados a reservar determinadas franjas o a ignorar sus propias necesidades de descanso para no perder puntuación para el algoritmo, razón por la cual debe asimismo realizarse una evaluación de impacto en los derechos fundamentales (art. 27 RIA). Por lo que se refiere a la transparencia, el sistema deberá funcionar con un nivel de transparencia suficiente para que los responsables del despliegue interpreten y usen correctamente los datos de salida, estando acompañados de un documento de instrucciones de uso que informe, entre otros aspectos de las características, capacidades y limitaciones del funcionamiento del sistema, así como de cualquier circunstancia conocida o previsible asociada al uso del sistema que pueda afectar a la salud, seguridad y derechos fundamentales (art. 13 RIA).
El RIA fue publicado en julio de 2024, con un período de vacatio legis de dos años para permitir la adaptación a su regulación. Cabe esperar, y desear, que requisitos que establece para los sistemas IA permitan, como pretende, que los sistemas de IA sean seguros, éticos y fiables.