Mostrar el registro sencillo del ítem
Evaluación del razonamiento jurídico de los modelos de lenguaje ante el examen de acceso a la Abogacía Española
dc.contributor.author | Sánchez Merchante, Luis Francisco | es-ES |
dc.contributor.author | Tejerina Rodríguez, Ofelia | es-ES |
dc.contributor.author | Rodríguez Jaramillo, Albi | es-ES |
dc.contributor.author | Aguayo Martínez-Sagrera, Belén | es-ES |
dc.contributor.author | De Prada Rodriguez, Mercedes | es-ES |
dc.contributor.author | Castro Matute, Karol Jael | es-ES |
dc.contributor.author | Plaza García, Julián | es-ES |
dc.contributor.author | de Paz Carmona, Manuel Eusebio | es-ES |
dc.date.accessioned | 2025-10-06T14:53:51Z | |
dc.date.available | 2025-10-06T14:53:51Z | |
dc.date.issued | 2025-09-01 | es_ES |
dc.identifier.issn | 2659-871X | es_ES |
dc.identifier.uri | http://hdl.handle.net/11531/105902 | |
dc.description | Artículos en revistas | es_ES |
dc.description.abstract | La aplicación de modelos lingüísticos de inteligencia artificial en el ámbito legal plantea desafíos críticos. Aunque en inglés han mostrado gran rendimiento en lógica y argumentación jurídica, faltan evaluaciones en español. Surgen así dos preguntas: si esos resultados son extrapolables al castellano y si alcanzarían un nivel adecuado de razonamiento jurídico. Para explorarlo, se organizó un hackathon con estudiantes de Ingeniería y Derecho, quienes probaron a los LLMs frente al examen oficial de acceso a la abogacía en España. Los sistemas lograron alta precisión sin justificar respuestas (85,5/100), pero descendieron cuando se exigió razonamiento legal (66,67/100), variando según la materia. Se concluye que los LLMs funcionan mejor en inglés, requieren evaluaciones multidimensionales y aún precisan supervisión jurídica y ética para su uso profesional. | es-ES |
dc.description.abstract | The application of artificial intelligence linguistic models in the legal field poses critical challenges. Although they have performed well in English in terms of logic and legal argumentation, there is a lack of evaluations in Spanish. This raises two questions: whether these results can be extrapolated to Spanish and whether they would achieve an adequate level of legal reasoning. To explore this, a hackathon was organised with engineering and law students, who tested the LLMs against the official bar exam in Spain. The systems achieved high accuracy without justifying answers (85,5/100), but their performance declined when legal reasoning was required (66,67/100), varying according to the subject matter. It was concluded that LLMs work better in English, require multidimensional evaluations, and still need legal and ethical supervision for professional use. | en-GB |
dc.format.mimetype | application/pdf | es_ES |
dc.language.iso | es-ES | es_ES |
dc.rights | es_ES | |
dc.rights.uri | es_ES | |
dc.source | Revista: Derecho Digital e Innovación, Periodo: 1, Volumen: , Número: 25, Página inicial: ., Página final: . | es_ES |
dc.title | Evaluación del razonamiento jurídico de los modelos de lenguaje ante el examen de acceso a la Abogacía Española | es_ES |
dc.type | info:eu-repo/semantics/article | es_ES |
dc.description.version | info:eu-repo/semantics/publishedVersion | es_ES |
dc.rights.holder | EMBARGO 2 AÑOS | es_ES |
dc.rights.accessRights | info:eu-repo/semantics/restrictedAccess | es_ES |
dc.keywords | Modelos lingüísticos Razonamiento jurídico Evaluación en español Hackathon interdisciplinario | es-ES |
dc.keywords | Language models Legal reasoning Evaluation in Spanish Interdisciplinary hackathon | en-GB |
Ficheros en el ítem
Este ítem aparece en la(s) siguiente(s) colección(ones)
-
Artículos
Artículos de revista, capítulos de libro y contribuciones en congresos publicadas.