Las empresas viven un momento de entusiasmo y cautela a partes iguales ante la inteligencia artificial (IA). Ven en ella una vía para optimizar costes, ganar eficiencia y abrir nuevas líneas de negocio, pero también detectan riesgos latentes: ciberataques, fugas de información o incumplimientos legales graves. En medio de esta tensión entre la innovación y el temor, y mientras la regulación intenta seguir el ritmo —con Estados Unidos optando por un enfoque más flexible y la Unión Europea por uno más garantista—, las compañías se enfrentan a una pregunta crucial: ¿cómo actuar en un terreno normativo que todavía se está construyendo?
Este fue el punto de partida del Think Tank Legal organizado por Aranzadi LA LEY, el tercero de una serie de encuentros moderados por el periodista especializado en asuntos jurídicos Marcelino Abad. Allí, juristas y expertos en gestión del conocimiento coincidieron en que el momento es tan prometedor como incierto.
Cristina Retana, directora de contenidos e innovación de Aranzadi LA LEY, advirtió que “hay muchos conceptos interpretables del reglamento que aún necesitan ser aterrizados en el día a día de las empresas”. Subrayó además la relevancia de usar herramientas basadas en datos fiables y actualizados, porque “si al sistema le metes basura, saca basura”.
En la misma línea, Alberto Moreno, director comercial de la firma, planteó el dilema central: “El dilema es cómo implantar la IA sin que la regulación suponga un freno”. A su juicio, pese a la complejidad del panorama normativo, este momento ofrece una ventaja competitiva a quienes sepan adelantarse. “Quien se anticipe, lo haga bien y construya un sistema robusto y ético será el que gane la batalla y el posicionamiento”, aseguró.
Un reglamento en construcción
El Reglamento de Inteligencia Artificial entró en vigor en agosto de 2024, aunque su aplicación será gradual hasta 2027. Un año después, los especialistas identifican tres frentes de riesgo inmediato: la privacidad, la propiedad intelectual y la responsabilidad civil. Sin embargo, también reconocen que el potencial de eficiencia y desarrollo comercial que ofrece la IA es enorme.
No todo son certezas, y así lo reflejaron las intervenciones. “La mera definición de inteligencia artificial ya genera polémica”, advirtió Beatriz Rodríguez, socia de RocaJunyent y delegada de protección de datos. La abogada señaló que la clasificación de los modelos de uso general —una de las cuatro categorías del reglamento— plantea problemas prácticos. “Los baremos para identificarlos pueden tener dudoso recorrido con el avance tecnológico que estamos viviendo”, añadió.
Rodríguez alertó además del riesgo de que el exceso de trámites burocráticos no se traduzca en mayor protección. “Si hay una brecha de seguridad tienes a la CNMV, la AEPD, a la Agencia de Inteligencia Artificial, el supervisor europeo… Cada uno con procedimientos distintos. Cuando hay un momento de crisis te preguntas, ¿por dónde empiezo?”.
Por su parte, Noelia Palacios, general counsel de Hipoges, recordó la relevancia del 2 de agosto de 2026, cuando entrará en vigor la parte de la normativa que afecta a los sistemas de alto riesgo. Destacó que los sandboxes, o entornos de prueba controlados, se han mostrado “eficaces para las empresas que desarrollen estas tecnologías de alto riesgo”. Palacios defendió un marco “garantista” y señaló que algunos estados norteamericanos, como Colorado, “han implementado regulaciones muy similares” a las europeas, lo que demuestra que “no regular la IA no es la solución”. Su conclusión fue clara: “Es una herramienta tan potente que puede cambiar las reglas del juego y a nosotros como sociedad”.
Competencia y velocidad
El consenso general es que la IA necesita ser regulada; la cuestión está en cuánto y cómo. Regular demasiado podría frenar la innovación y empujar la inversión hacia entornos más permisivos.
“Quizás Europa deba flexibilizar su postura en algunas cuestiones”, sugirió Marisa Delgado, directora de Conocimiento e Innovación de A&O Shearman en España. Explicó que muchos proveedores pueden implementar sus soluciones de IA rápidamente en Estados Unidos, Australia o Asia, mientras que en Europa se topan con un proceso mucho más lento por la carga normativa. Para ella, una “normativa común global” sería el escenario ideal, garantizando negocios seguros y responsables sin obstaculizar el avance tecnológico.
Desde una perspectiva más crítica, Daniel Lara, director legal de Afianza, recordó que “queda mucho por hacer”. “En Europa somos proteccionistas por naturaleza, pero hay países que no lo son tanto. Si a una persona de la India, de China o de Estados Unidos le trasladas nuestras normas europeas quizás le explote la cabeza. ¿Cómo vamos a regular algo mundial si solo somos una parte del planeta?”, planteó.
Lara sintetizó uno de los grandes desafíos de fondo: la velocidad. “Si la tecnología va a 100 km/h, el mundo regulatorio va a 10 km/h”, dijo. Y concluyó con una reflexión que resume la sensación general del encuentro: “Sencillamente, cuando llegamos ya existen diez retos nuevos”.









