La inteligencia artificial y el sujeto de derecho
Resumen
Este trabajo se pregunta si un sistema de inteligencia artificial puede ser sujeto de derecho. La respuesta, tras el análisis realizado, es negativa. Para llegar a ella se parte de las principales definiciones institucionales de inteligencia artificial y se confrontan con los conceptos de sujeto de derecho y responsabilidad que ofrece la tradición jurídica y filosófica. Se examinan después las analogías más habituales: la persona jurídica, el menor de edad, el animal. Todas aportan ideas útiles, pero ninguna encaja del todo. La inteligencia artificial no tiene intencionalidad, no delibera y no puede recibir un reproche con sentido. El marco teórico se pone a prueba con cuatro casos concretos en los que la opacidad de estos sistemas y su capacidad de adaptación dificultan saber quién debe responder cuando algo sale mal. La conclusión es clara: crear una personalidad electrónica para la inteligencia artificial no resuelve el problema. Lo que hace falta es repartir la responsabilidad entre las personas que diseñan, programan y utilizan estos sistemas. Y allí donde no sea posible identificar a un responsable concreto, deben existir mecanismos como seguros obligatorios o fondos de compensación que protejan a las víctimas. This paper asks whether an artificial intelligence system can be a legal subject. After the analysis carried out, the answer is no. The starting point is the main institutional definitions of artificial intelligence, which are then confronted with the concepts of legal subjectivity and liability offered by legal and philosophical tradition. The most common analogies are examined: legal persons, minors, animals. All provide useful insights, but none fully fits. Artificial intelligence has no intentionality, does not deliberate and cannot meaningfully be the addressee of reproach. The theoretical framework is tested against four concrete cases in which the opacity of these systems and their capacity to adapt make it difficult to determine who should be held accountable when something goes wrong. The conclusion is straightforward: creating an electronic personality for artificial intelligence does not solve the problem. What is needed is to distribute liability among the people who design, program and use these systems. And where it is not possible to identify a specific responsible party, mechanisms such as mandatory insurance or compensation funds must exist to protect victims.
Trabajo Fin de Grado
La inteligencia artificial y el sujeto de derechoTitulación / Programa
Grado en Administración y Dirección de Empresas y Grado en DerechoMaterias/ categorías / ODS
KDGPalabras Clave
inteligencia artificial, sujeto de derecho, responsabilidad, personalidad electrónica, opacidad algorítmica, AI Act.artificial intelligence, legal subject, liability, electronic personality, algorithmic opacity, AI Act.


