Show simple item record

dc.contributor.advisorPérez Laporta, Carloses-ES
dc.contributor.authorCastillo Artacho, Jaimees-ES
dc.contributor.otherUniversidad Pontificia Comillas, Facultad de Derechoes_ES
dc.date.accessioned2025-09-18T06:31:56Z
dc.date.available2025-09-18T06:31:56Z
dc.date.issued2026es_ES
dc.identifier.urihttp://hdl.handle.net/11531/104306
dc.descriptionGrado en Administración y Dirección de Empresas y Grado en Derechoes_ES
dc.description.abstractEste trabajo se pregunta si un sistema de inteligencia artificial puede ser sujeto de derecho. La respuesta, tras el análisis realizado, es negativa. Para llegar a ella se parte de las principales definiciones institucionales de inteligencia artificial y se confrontan con los conceptos de sujeto de derecho y responsabilidad que ofrece la tradición jurídica y filosófica. Se examinan después las analogías más habituales: la persona jurídica, el menor de edad, el animal. Todas aportan ideas útiles, pero ninguna encaja del todo. La inteligencia artificial no tiene intencionalidad, no delibera y no puede recibir un reproche con sentido. El marco teórico se pone a prueba con cuatro casos concretos en los que la opacidad de estos sistemas y su capacidad de adaptación dificultan saber quién debe responder cuando algo sale mal. La conclusión es clara: crear una personalidad electrónica para la inteligencia artificial no resuelve el problema. Lo que hace falta es repartir la responsabilidad entre las personas que diseñan, programan y utilizan estos sistemas. Y allí donde no sea posible identificar a un responsable concreto, deben existir mecanismos como seguros obligatorios o fondos de compensación que protejan a las víctimas.es-ES
dc.description.abstractThis paper asks whether an artificial intelligence system can be a legal subject. After the analysis carried out, the answer is no. The starting point is the main institutional definitions of artificial intelligence, which are then confronted with the concepts of legal subjectivity and liability offered by legal and philosophical tradition. The most common analogies are examined: legal persons, minors, animals. All provide useful insights, but none fully fits. Artificial intelligence has no intentionality, does not deliberate and cannot meaningfully be the addressee of reproach. The theoretical framework is tested against four concrete cases in which the opacity of these systems and their capacity to adapt make it difficult to determine who should be held accountable when something goes wrong. The conclusion is straightforward: creating an electronic personality for artificial intelligence does not solve the problem. What is needed is to distribute liability among the people who design, program and use these systems. And where it is not possible to identify a specific responsible party, mechanisms such as mandatory insurance or compensation funds must exist to protect victims.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherKDGes_ES
dc.titleLa inteligencia artificial y el sujeto de derechoes_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsinteligencia artificial, sujeto de derecho, responsabilidad, personalidad electrónica, opacidad algorítmica, AI Act.es-ES
dc.keywordsartificial intelligence, legal subject, liability, electronic personality, algorithmic opacity, AI Act.en-GB


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record

Attribution-NonCommercial-NoDerivs 3.0 United States
Except where otherwise noted, this item's license is described as Attribution-NonCommercial-NoDerivs 3.0 United States