Noticias JurídicasOrigen https://noticias.juridicas.com

Actualidad Noticias
21/10/2024 15:24:20 REDACCIÓN ENTREVISTA 6 minutos

Robert Mahari: "Con la IA los equipos legales de las empresas recurrirán menos a los bufetes para tareas manuales"

El conferenciante de Harvard analiza cómo impactará la inteligencia artificial en el negocio legal; su visión es esperanzadora: no destruirá puestos de trabajo legales, pero sí los transformará

Robert Mahari (MIT Media Lab & Harvard Law School) es experto en computational law y estudia la ética del desarrollo tecnologico de la Inteligencia Artificial aplicado al mundo del Derecho. El conferenciante, uno de los ponentes de la última edición del Legal Management Forum, charla con Noticias Jurídicas para ahondar las tendencias del sector legal tras su última visita a Madrid. 

¿Hasta qué punto la IA puede afectar la dimensión humana de la justicia?

El modelo actual de servicios legales es inaccesible para la mayoría, y la tecnología tiene el potencial de ayudar a los profesionales del derecho para que puedan ampliar sus servicios. Aunque se han realizado algunos intentos de utilizar la IA para eliminar por completo a los humanos de los procesos jurídicos, creo que este enfoque es en gran medida desacertado. Mi esperanza es que utilicemos la tecnología para permitir que los profesionales del derecho completen tareas más rápidamente, por ejemplo, automatizando aspectos de la investigación y la redacción jurídica, en lugar de intentar eliminar a las personas por completo.

¿Habrá diferencias en la aplicación de esta tecnología en el ámbito del derecho anglosajón con respecto al sistema romano germánico?

Gran parte de mi trabajo se ha centrado en el Derecho anglosajón, donde el acceso a los datos y la dependencia de la citas a precedentes proporcionan los datos necesarios para entrenar los sistemas de IA. Sin embargo, los sistemas que no son de Derecho consuetudinario también pueden beneficiarse de la IA, sólo que pueden requerir enfoques diferentes.

En última instancia, la disponibilidad de datos es una cuestión clave para el desarrollo de la tecnología legal. Incluso en las jurisdicciones de derecho consuetudinario, la mayoría de los datos jurídicos son de propiedad privada. Tengo la esperanza de que podamos utilizar modelos de mejora de la privacidad y los fideicomisos de datos para facilitar el intercambio responsable de datos que contribuyan al desarrollo de tecnología jurídica orientada a la práctica.

La tecnología tiene el potencial de ayudar a los profesionales del derecho para que puedan ampliar sus servicios

A medida que la IA crece en protagonismo, también surgen preguntas sobre propiedad y autoría. Por ejemplo, ¿deberían ser remunerados los artistas cuyo arte se utilizó para entrenar modelos?

Esta es una pregunta increíblemente compleja que se complica por la naturaleza fragmentada e internacional de la cadena de suministro de datos. Mi equipo ha investigado mucho para rastrear el origen de los datos de entrenamiento de la IA. Una de las cosas que hemos descubierto es que, a falta de licencias de datos ejecutables, muchos titulares de contenidos restringen el acceso a sus datos, lo que no solo afecta a la formación en IA, sino que también socava la web abierta. Es importante crear pautas más claras sobre cómo se pueden utilizar o no los datos.

En cuanto al tema que nos ocupa, una solución que se ha vuelto progresivamente popular en la comunidad académica es que el entrenamiento de modelos de IA está protegido bajo el marco de uso justo o excepciones relacionadas con el minado de datos. Pero cuando un modelo genera un resultado específico, que es similar a una obra de arte existente, ese artista puede solicitar una compensación por la misma. Este punto también dependerá de cómo se utilice exactamente el resultado, por ejemplo, si su utilización es de naturaleza comercial.

¿Qué desafíos éticos y legales plantea el uso de inteligencia artificial en la justicia?

¡Hay muchos! Sabemos que la IA se entrena con datos históricos que, desafortunadamente, pueden contener sesgos. Por lo tanto, confiar en la IA para juzgar y sentenciar puede dar lugar a discriminación. En algunos casos, la gente confía demasiado en las herramientas de IA (el «sesgo de anclaje»), por lo que tenemos que ser cuidadosos sobre cómo diseñamos estas herramientas, especialmente cuando están destinadas a apoyar y no sustituir el razonamiento humano.

"La gente confía demasiado en las herramientas de IA (el «sesgo de anclaje»), por lo que tenemos que ser cuidadosos sobre cómo diseñamos estas herramientas"

Un enfoque para tratar de mitigar estos desafíos es no centrarse en herramientas para los jueces, sino en dar a los litigantes todos los recursos posibles para presentar el mejor caso posible. Sin embargo, también tenemos que prestar atención al riesgo de que esto dé lugar a un resultado en el que los litigantes dependan de herramientas tecnológicas inferiores, mientras que los que tienen recursos financieros puedan permitirse servicios superiores.

¿Qué medidas deben adoptarse para proteger la privacidad de los datos personales en los sistemas de IA utilizados en el ámbito jurídico?

Cuando la IA se entrena con datos públicos, puede identificar datos personales que ya están en Internet y sacar a la luz estos datos más fácilmente. La cuestión de hasta qué punto esto reduce aún más la privacidad es complicada y dependerá de los detalles del caso concreto.

La privacidad también puede verse socavada cuando las aportaciones de los usuarios de los modelos se utilizan para futuros entrenamientos. En este caso, puede divulgarse información no pública. Este riesgo es algo más fácil de abordar limitando la forma en que los desarrolladores de IA pueden utilizar los datos de los usuarios.

¿Qué actores pueden desaparecer en el sector legal con el auge de la IA?

No creo que desaparezcan muchas funciones jurídicas, sino que cambiarán los tipos de trabajo. Los equipos jurídicos más pequeños de las empresas podrán hacer más cosas y recurrirán menos a los bufetes de abogados para tareas manuales y más para asuntos estratégicos complejos.

En este sentido, espero que esto cambie la estructura organizativa de los despachos de abogados, que necesitarán menos asociados. Sin embargo, los bufetes seguirán necesitando invertir en la próxima generación, por lo que no creo que eliminen por completo a los abogados junior. Sin embargo, se podría ver cómo cambian las normas, con más abogados pasando los primeros años en funciones de interés público en lugar de en bufetes. Esto podría ser un resultado positivo para la sociedad.

Los bufetes seguirán necesitando invertir en la próxima generación, por lo que no creo que eliminen por completo a los abogados junior

¿Hay que reconocer en un futuro capacidad jurídica a las máquinas de IA que tengan un papel en el tráfico mercantil y en la sociedad?

En cuanto a esta pregunta, supongo que incluso los agentes de IA altamente capacitados serán vistos como «agentes» en un sentido jurídico, persiguiendo los propósitos de los principios humanos. Como tal, espero que casi siempre haya un humano que sea responsable de las acciones de los sistemas de IA autónomos. Un ejemplo lo hemos visto en el caso de Air Canada. Lo que está claro es que esto cada vez será más complejo a medida que los agentes de IA se vuelvan más sofisticados y capaces de trabajar de forma más autónoma.

¿Cómo se puede entrenar a la IA para evitar información sesgada? ¿Cómo se puede garantizar que estas herramientas actúen de manera imparcial y responsable en el sector legal?

Bajo mi punto de vista, es muy complicado dar garantías, pero es necesario que los sistemas de IA sean testados para identificar sesgos. Estas pruebas deben realizarse en entornos realistas y también necesitamos entender cómo interactúa la IA con usuarios humanos. Puede darse el caso, por ejemplo, de que un sistema tenga sesgos limitados, pero también que la forma en la que el usuario utilice ese sistema dé como resultado decisiones sesgadas.

Te recomendamos