Mostrar el registro sencillo del ítem

dc.contributor.authorSánchez Merchante, Luis Franciscoes-ES
dc.contributor.authorTejerina Rodríguez, Ofeliaes-ES
dc.contributor.authorRodríguez Jaramillo, Albies-ES
dc.contributor.authorAguayo Martínez-Sagrera, Belénes-ES
dc.contributor.authorDe Prada Rodriguez, Mercedeses-ES
dc.contributor.authorCastro Matute, Karol Jaeles-ES
dc.contributor.authorPlaza García, Juliánes-ES
dc.contributor.authorde Paz Carmona, Manuel Eusebioes-ES
dc.date.accessioned2025-10-06T14:53:51Z
dc.date.available2025-10-06T14:53:51Z
dc.date.issued2025-09-01es_ES
dc.identifier.issn2659-871Xes_ES
dc.identifier.urihttp://hdl.handle.net/11531/105902
dc.descriptionArtículos en revistases_ES
dc.description.abstractLa aplicación de modelos lingüísticos de inteligencia artificial en el ámbito legal plantea desafíos críticos. Aunque en inglés han mostrado gran rendimiento en lógica y argumentación jurídica, faltan evaluaciones en español. Surgen así dos preguntas: si esos resultados son extrapolables al castellano y si alcanzarían un nivel adecuado de razonamiento jurídico. Para explorarlo, se organizó un hackathon con estudiantes de Ingeniería y Derecho, quienes probaron a los LLMs frente al examen oficial de acceso a la abogacía en España. Los sistemas lograron alta precisión sin justificar respuestas (85,5/100), pero descendieron cuando se exigió razonamiento legal (66,67/100), variando según la materia. Se concluye que los LLMs funcionan mejor en inglés, requieren evaluaciones multidimensionales y aún precisan supervisión jurídica y ética para su uso profesional.es-ES
dc.description.abstractThe application of artificial intelligence linguistic models in the legal field poses critical challenges. Although they have performed well in English in terms of logic and legal argumentation, there is a lack of evaluations in Spanish. This raises two questions: whether these results can be extrapolated to Spanish and whether they would achieve an adequate level of legal reasoning. To explore this, a hackathon was organised with engineering and law students, who tested the LLMs against the official bar exam in Spain. The systems achieved high accuracy without justifying answers (85,5/100), but their performance declined when legal reasoning was required (66,67/100), varying according to the subject matter. It was concluded that LLMs work better in English, require multidimensional evaluations, and still need legal and ethical supervision for professional use.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightses_ES
dc.rights.uries_ES
dc.sourceRevista: Derecho Digital e Innovación, Periodo: 1, Volumen: , Número: 25, Página inicial: ., Página final: .es_ES
dc.titleEvaluación del razonamiento jurídico de los modelos de lenguaje ante el examen de acceso a la Abogacía Españolaes_ES
dc.typeinfo:eu-repo/semantics/articlees_ES
dc.description.versioninfo:eu-repo/semantics/publishedVersiones_ES
dc.rights.holderEMBARGO 2 AÑOSes_ES
dc.rights.accessRightsinfo:eu-repo/semantics/restrictedAccesses_ES
dc.keywordsModelos lingüísticos Razonamiento jurídico Evaluación en español Hackathon interdisciplinarioes-ES
dc.keywordsLanguage models Legal reasoning Evaluation in Spanish Interdisciplinary hackathonen-GB


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

  • Artículos
    Artículos de revista, capítulos de libro y contribuciones en congresos publicadas.

Mostrar el registro sencillo del ítem