Mostrar el registro sencillo del ítem
Comparing BERT against traditional machine learning text classification
dc.contributor.author | Garrido Merchán, Eduardo César | es-ES |
dc.contributor.author | Gonzalez Carvajal, Santiago | es-ES |
dc.date.accessioned | 2022-02-09T10:23:18Z | |
dc.date.available | 2022-02-09T10:23:18Z | |
dc.date.issued | 17/07/2020 | es_ES |
dc.identifier | https://caepia20-21.uma.es/cfp_es.html?lang=es | es_ES |
dc.identifier.uri | http://hdl.handle.net/11531/66166 | |
dc.description | Presentación en congreso | es_ES |
dc.description.abstract | El modelo BERT ha surgido como un estado de modelo de última generación en los últimos años. Es capaz de hacer frente a las tareas de PNL. como la clasificación de texto supervisada sin supervisión humana. Su flexibilidad para hacer frente a cualquier corpus y ofrecer excelentes resultados. ha hecho que este enfoque sea muy popular en la academia y la industria. Aunque, otros enfoques se han utilizado antes con éxito. Primero presentamos BERT y una revisión de los enfoques clásicos de PNL. Luego, probamos empíricamente con un conjunto de diferentes escenarios la comportamiento de BERT contra el vocabulario tradicional TF-IDF alimentado a los algoritmos de ML. El propósito de este trabajo es agregar datos empíricos evidencia para respaldar el uso de BERT como predeterminado en las tareas de NLP. Los experimentos muestran la superioridad de BERT y su independencia de características del problema de la PNL como el lenguaje del texto agregar evidencia empírica para usar BERT como una técnica predeterminada en problemas de PNL. | es-ES |
dc.description.abstract | The BERT model has arisen as a popular state-of- the-art model in recent years. It is able to cope with NLP tasks such as supervised text classification without human supervision. Its flexibility to cope with any corpus delivering great results has make this approach very popular in academia and industry. Although, other approaches have been used before successfully. We first present BERT and a review on classical NLP approaches. Then, we empirically test with a suite of different scenarios the behaviour of BERT against traditional TF-IDF vocabulary fed to ML algorithms. The purpose of this work is adding empirical evidence to support the use of BERT as a default on NLP tasks. Experiments show the superiority of BERT and its independence of features of the NLP problem such as the language of the text adding empirical evidence to use BERT as a default technique in NLP problems. | en-GB |
dc.format.mimetype | application/pdf | es_ES |
dc.language.iso | es-ES | es_ES |
dc.rights | Creative Commons Reconocimiento-NoComercial-SinObraDerivada España | es_ES |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/es/ | es_ES |
dc.source | es_ES | |
dc.title | Comparing BERT against traditional machine learning text classification | es_ES |
dc.type | info:eu-repo/semantics/other | es_ES |
dc.description.version | info:eu-repo/semantics/publishedVersion | es_ES |
dc.rights.holder | es_ES | |
dc.rights.accessRights | info:eu-repo/semantics/openAccess | es_ES |
dc.keywords | BERT, NLP, aprendizaje supervisado | es-ES |
dc.keywords | BERT, NLP, machine learning | en-GB |
Ficheros en el ítem
Este ítem aparece en la(s) siguiente(s) colección(ones)
-
Artículos
Artículos de revista, capítulos de libro y contribuciones en congresos publicadas.