Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/109980
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.authorde Curtò i Díaz, Joaquimes-ES
dc.contributor.authorde Zarzà i Cubero, Irenees-ES
dc.contributor.authorGarcía Molina, Pabloes-ES
dc.contributor.authorCabot, Jordies-ES
dc.contributor.authorCano, Juan Carloses-ES
dc.contributor.authorCalafate, Carlos T.es-ES
dc.date.accessioned2026-05-08T07:26:07Z-
dc.date.available2026-05-08T07:26:07Z-
dc.date.issued2026-11-02es_ES
dc.identifier.issn0306-4573es_ES
dc.identifier.urihttp://dx.doi.org/10.1016/j.ipm.2026.104878es_ES
dc.descriptionArtículos en revistases_ES
dc.description.abstractEste artículo presenta una evaluación comparativa de las capacidades de razonamiento de modelos fundacionales de lenguaje en diferentes infraestructuras computacionales, incluyendo supercomputación, servicios en la nube y clústeres universitarios. El estudio analiza quince modelos mediante un benchmark de 79 problemas distribuidos en ocho dominios académicos. Los resultados muestran que la calidad del razonamiento depende principalmente del modelo y no de la infraestructura utilizada, siempre que las condiciones de inferencia sean equivalentes. Además, se identifican diferencias relevantes entre precisión final y transparencia del razonamiento paso a paso. El trabajo destaca que modelos más pequeños y optimizados pueden superar a arquitecturas de mayor tamaño y propone una metodología reproducible para la evaluación de modelos de inteligencia artificial en contextos científicos y educativos.es-ES
dc.description.abstractThis article presents a comparative evaluation of reasoning capabilities in foundation language models across different computational infrastructures, including supercomputers, cloud services, and university clusters. The study analyzes fifteen models using a benchmark of 79 problems distributed across eight academic domains. Results show that reasoning quality primarily depends on the model itself rather than on the infrastructure, provided that inference conditions remain equivalent. The paper also identifies significant differences between final-answer accuracy and step-by-step reasoning transparency. Furthermore, the study demonstrates that smaller and better-optimized models can outperform larger architectures in reasoning tasks. Finally, the authors propose a reproducible framework for evaluating artificial intelligence models in scientific, educational, and research-oriented environments.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoen-GBes_ES
dc.rightses_ES
dc.rights.uries_ES
dc.sourceRevista: Information Processing & Management, Periodo: 1, Volumen: 63, Número: 7, Part B, Página inicial: 104878, Página final: 104878es_ES
dc.titleCross-platform evaluation of reasoning capabilities in foundation models across heterogeneous computational infrastructureses_ES
dc.typeinfo:eu-repo/semantics/articlees_ES
dc.description.versioninfo:eu-repo/semantics/publishedVersiones_ES
dc.rights.holderPolitica editoriales_ES
dc.rights.accessRightsinfo:eu-repo/semantics/restrictedAccesses_ES
dc.keywordsModelos fundacionales, Inteligencia artificial, Razonamiento automático, Evaluación reproducible, Infraestructura computacional, Modelos de lenguaje, Benchmarkinges-ES
dc.keywordsFoundation models, Artificial intelligence, Automated reasoning, Reproducible evaluation, Computational infrastructure, Language models, Benchmarkingen-GB
Aparece en las colecciones: Artículos

Ficheros en este ítem:
Fichero Tamaño Formato  
crossplatform_llm_decurtoetal.pdf3,8 MBAdobe PDFVisualizar/Abrir     Request a copy


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.