Mostrar el registro sencillo del ítem

dc.contributor.authorGarrido Merchán, Eduardo Césares-ES
dc.contributor.authorGonzalez Carvajal, Santiagoes-ES
dc.date.accessioned2022-02-09T10:23:18Z
dc.date.available2022-02-09T10:23:18Z
dc.date.issued17/07/2020es_ES
dc.identifierhttps://caepia20-21.uma.es/cfp_es.html?lang=eses_ES
dc.identifier.urihttp://hdl.handle.net/11531/66166
dc.descriptionPresentación en congresoes_ES
dc.description.abstractEl modelo BERT ha surgido como un estado de modelo de última generación en los últimos años. Es capaz de hacer frente a las tareas de PNL. como la clasificación de texto supervisada sin supervisión humana. Su flexibilidad para hacer frente a cualquier corpus y ofrecer excelentes resultados. ha hecho que este enfoque sea muy popular en la academia y la industria. Aunque, otros enfoques se han utilizado antes con éxito. Primero presentamos BERT y una revisión de los enfoques clásicos de PNL. Luego, probamos empíricamente con un conjunto de diferentes escenarios la comportamiento de BERT contra el vocabulario tradicional TF-IDF alimentado a los algoritmos de ML. El propósito de este trabajo es agregar datos empíricos evidencia para respaldar el uso de BERT como predeterminado en las tareas de NLP. Los experimentos muestran la superioridad de BERT y su independencia de características del problema de la PNL como el lenguaje del texto agregar evidencia empírica para usar BERT como una técnica predeterminada en problemas de PNL.es-ES
dc.description.abstractThe BERT model has arisen as a popular state-of- the-art model in recent years. It is able to cope with NLP tasks such as supervised text classification without human supervision. Its flexibility to cope with any corpus delivering great results has make this approach very popular in academia and industry. Although, other approaches have been used before successfully. We first present BERT and a review on classical NLP approaches. Then, we empirically test with a suite of different scenarios the behaviour of BERT against traditional TF-IDF vocabulary fed to ML algorithms. The purpose of this work is adding empirical evidence to support the use of BERT as a default on NLP tasks. Experiments show the superiority of BERT and its independence of features of the NLP problem such as the language of the text adding empirical evidence to use BERT as a default technique in NLP problems.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsCreative Commons Reconocimiento-NoComercial-SinObraDerivada Españaes_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/es_ES
dc.sourcees_ES
dc.titleComparing BERT against traditional machine learning text classificationes_ES
dc.typeinfo:eu-repo/semantics/otheres_ES
dc.description.versioninfo:eu-repo/semantics/publishedVersiones_ES
dc.rights.holderes_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsBERT, NLP, aprendizaje supervisadoes-ES
dc.keywordsBERT, NLP, machine learningen-GB


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

  • Artículos
    Artículos de revista, capítulos de libro y contribuciones en congresos publicadas.

Mostrar el registro sencillo del ítem

Creative Commons Reconocimiento-NoComercial-SinObraDerivada España
Excepto si se señala otra cosa, la licencia del ítem se describe como Creative Commons Reconocimiento-NoComercial-SinObraDerivada España