Mostrar el registro sencillo del ítem

dc.contributor.advisorRamos Fernández, María Eugeniaes-ES
dc.contributor.authorSenna-Prime, Alicia Heatheres-ES
dc.contributor.otherUniversidad Pontificia Comillas, Facultad de Ciencias Económicas y Empresarialeses_ES
dc.date.accessioned2023-07-11T08:41:48Z
dc.date.available2023-07-11T08:41:48Z
dc.date.issued2024es_ES
dc.identifier.urihttp://hdl.handle.net/11531/80076
dc.descriptionGrado en Administración y Dirección de Empresas con Mención en Internacionales_ES
dc.description.abstractEl objetivo de este estudio es descubrir si las grandes empresas asumen su responsabilidad cuando se detectan prejuicios contra las minorías étnicas y las mujeres en sus sistemas de datos, concretamente en IA, algoritmos y grandes modelos de aprendizaje de idiomas. En este caso, la atención se centra en 3 grandes corporaciones: Google, Airbnb y Amazon, todas ellas líderes en sus respectivos sectores. La revisión bibliográfica contextualiza por qué este sesgo en Big Data es un problema que hay que abordar y cómo las humanidades digitales pueden ayudar en el futuro. La sección de investigación se compone de 3 estudios de casos que se analizaron para concluir si las empresas asumen la responsabilidad del sesgo en sus sistemas. En primer lugar, se describe en profundidad cada caso y, a continuación, se analizan las medidas adoptadas por la empresa para contrarrestar el sesgo. El análisis se centra en la cultura de la empresa, su respuesta a las protestas públicas y las medidas adoptadas para corregir sus algoritmos. La conclusión general es que, en general, las empresas tardan en responsabilizarse de los sesgos detectados en sus sistemas y sólo asumen su responsabilidad cuando se enfrentan a una mala publicidad o a una reacción pública negativa. La conclusión es que las empresas deben ser más proactivas a la hora de poner a prueba sus sistemas en busca de sesgos para erradicarlos en general.es-ES
dc.description.abstractThe purpose of this study is to discover whether large corporations take accountability when bias against ethnic minorities and women are found in their data systems, specifically in AI, algorithms, and Large Language Learning Models. In this case, the focus is on 3 large corporations: Google, Airbnb and Amazon, all leaders in their respective sectors. The literature review gives context as to why this bias in Big Data is an issue that needs to be addressed and how digital humanities can help in future. The research section is comprised of 3 case studies that were analysed to conclude on whether companies take accountability for bias in their systems. First, there is an in-depth description of each case and then an analysis of the actions taken by the company to counter the bias. This focuses on the company culture, their response to public outcry and the measures taken to fix their algorithms. The overall conclusion is that in general companies are slow to take accountability for bias found in their systems and only take responsibility when they are faced with bad publicity or a negative public reaction. The conclusion states that companies need to be more proactive testing their systems for bias in order to eradicate it overall.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoen-GBes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject53 Ciencias económicases_ES
dc.subject5311 Organización y dirección de empresases_ES
dc.subject531107 Investigación operativaes_ES
dc.subject.otherK4Nes_ES
dc.titleTo What Extent do Large Corporations Take Accountability when Race and Gender Bias is Found in their Data Systems and where do Digital Humanities Come into Play?es_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsBig Data, Humanidades Digitales, Inteligencia Artificial (IA), Algoritmo, Sesgo, Etnias negras y minoritarias, Pensamiento Crítico, Analizares-ES
dc.keywordsBig Data, Digital Humanities, Artificial Intelligence (AI), Algorithm, Bias, Black and Minority Ethnicities (BAME), Critical Thinking, Analyseen-GB


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States