Noticias de Cantabria
Cultura 24-04-2026 10:15

La Facultad de Derecho aborda los riesgos jurídicos de la IA, como opacidad, sesgos y vulneración de derechos

La Facultad de Derecho de la Universidad de Cantabria (UC) ha celebrado el encuentro `Retos jurídicos en la era de la inteligencia artificial`, en la que ha abordado los riesgos jurídicos de la IA, entre los que se encuentran opacidad, sesgos y vulneración de derechos.

En el encuentro, celebrado este miércoles, participaron seis profesores del centro y cerca de 100 asistentes, en formato presencial y online.

Organizado junto al Club Iberoamericano de Investigación Jurídica (IberoJuris), el programa incluyó la participación de José Ignacio Solar, Cristina San Miguel, David A. Cuesta, Federica Costagliola, Nicolás Bárcena y Jesús Daniel Ayllón, quienes abordaron el uso de sistemas de inteligencia artificial en distintos contextos, con especial atención a su impacto en la toma de decisiones públicas, la actividad judicial, el ejercicio de la abogacía y la protección de derechos fundamentales, ha infromado la Universidad de Cantabria.

Una de las cuestiones tratadas fue el uso de sistemas automatizados en la administración pública y su encaje en el marco jurídico vigente.

En particular, Costagliola planteó el acceso al código fuente como elemento necesario para garantizar la motivación de los actos administrativos y el derecho de defensa.

Hizo referencia a la reciente resolución del Tribunal Supremo, en la que se aborda el uso de un sistema automatizado en la gestión del bono social eléctrico, cuyo fallo reconoce la necesidad de acceder al funcionamiento del algoritmo cuando este condiciona decisiones administrativas.

En este sentido, subrayó que "el código fuente constituye la motivación del acto administrativo y es lo que permite al administrado defenderse", al tiempo que advirtió que "la opacidad puede impedir comprender por qué el sistema arroja determinados resultados".

Además, señaló que "los jueces se convierten en el último baluarte ante los riesgos de las actuaciones administrativas automatizadas llevadas a cabo a través de un algoritmo", en un contexto donde todavía no existen autoridades independientes de supervisión.

Por su parte, Cuesta centró su intervención en la incorporación de sistemas de inteligencia artificial por parte de las administraciones, especialmente cuando se adquieren a proveedores privados.

Apuntó que la administración está incorporando progresivamente estos sistemas, pero "no tiene garantías de contar con información suficiente para saber cómo funcionan realmente", lo que "dificulta detectar posibles sesgos o impactos en la toma de decisiones".

Asimismo, advirtió de que la regulación actual "no está actualizada al grado de sofisticación de esta tecnología", lo que "genera incertidumbre sobre la protección de los intereses generales".

Mientras que San Miguel habló sobre el uso de herramientas de inteligencia artificial en el trabajo judicial, en línea con las directrices del Consejo General del Poder Judicial.

Explicó que estas herramientas pueden emplearse, por ejemplo, en la generación de borradores de resoluciones, pero siempre bajo "ciertos límites". "La inteligencia artificial puede utilizarse como instrumento de apoyo, pero en ningún caso puede sustituir la función del juez", manifestó.

Por otro lado, Solar analizó el impacto de la inteligencia artificial generativa en los despachos de abogacía. Según indicó, "muchos despachos están desarrollando sus propios modelos para automatizar tareas jurídicas", lo que está "transformando tanto la organización del trabajo como los perfiles profesionales".

En este contexto, destacó la "creciente necesidad" de formación específica. "La inteligencia artificial se ha convertido en un elemento clave para la competitividad y exige un uso eficiente y ético por parte de los profesionales", trasladó.

Además, Bárcena abordó el uso de sistemas capaces de influir en decisiones de consumo mediante la personalización de ofertas o precios. Señaló que el desarrollo normativo aún es "incipiente" y que "las regulaciones se están construyendo sobre la marcha para dar respuesta a problemas concretos", en un contexto donde la inteligencia artificial "puede intensificar la asimetría informativa".

Advirtió que estas tecnologías permiten "un conocimiento mucho más profundo de las vulnerabilidades del consumidor", lo que "plantea nuevos retos para su protección".

Finalmente, Ayllón trató la generación de contenidos mediante inteligencia artificial, como los 'deepfakes', y su incidencia en derechos como el honor, la intimidad y la propia imagen.

Planteó escenarios cada vez más frecuentes, como la aparición de vídeos falsos en redes sociales, y explicó que "se trata de intromisiones que pueden afectar gravemente a derechos fundamentales".

Destacó que ya existen instrumentos jurídicos tanto en el ámbito europeo como nacional, incluyendo el Reglamento de Inteligencia Artificial, así como nuevas propuestas legislativas orientadas a tipificar estas conductas.

Sé el primero en comentar