Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/80076
Título : To What Extent do Large Corporations Take Accountability when Race and Gender Bias is Found in their Data Systems and where do Digital Humanities Come into Play?
Autor : Ramos Fernández, María Eugenia
Senna-Prime, Alicia Heather
Universidad Pontificia Comillas, Facultad de Ciencias Económicas y Empresariales
Palabras clave : 53 Ciencias económicas;5311 Organización y dirección de empresas;531107 Investigación operativa
Fecha de publicación : 2024
Resumen : El objetivo de este estudio es descubrir si las grandes empresas asumen su responsabilidad cuando se detectan prejuicios contra las minorías étnicas y las mujeres en sus sistemas de datos, concretamente en IA, algoritmos y grandes modelos de aprendizaje de idiomas. En este caso, la atención se centra en 3 grandes corporaciones: Google, Airbnb y Amazon, todas ellas líderes en sus respectivos sectores. La revisión bibliográfica contextualiza por qué este sesgo en Big Data es un problema que hay que abordar y cómo las humanidades digitales pueden ayudar en el futuro. La sección de investigación se compone de 3 estudios de casos que se analizaron para concluir si las empresas asumen la responsabilidad del sesgo en sus sistemas. En primer lugar, se describe en profundidad cada caso y, a continuación, se analizan las medidas adoptadas por la empresa para contrarrestar el sesgo. El análisis se centra en la cultura de la empresa, su respuesta a las protestas públicas y las medidas adoptadas para corregir sus algoritmos. La conclusión general es que, en general, las empresas tardan en responsabilizarse de los sesgos detectados en sus sistemas y sólo asumen su responsabilidad cuando se enfrentan a una mala publicidad o a una reacción pública negativa. La conclusión es que las empresas deben ser más proactivas a la hora de poner a prueba sus sistemas en busca de sesgos para erradicarlos en general.
The purpose of this study is to discover whether large corporations take accountability when bias against ethnic minorities and women are found in their data systems, specifically in AI, algorithms, and Large Language Learning Models. In this case, the focus is on 3 large corporations: Google, Airbnb and Amazon, all leaders in their respective sectors. The literature review gives context as to why this bias in Big Data is an issue that needs to be addressed and how digital humanities can help in future. The research section is comprised of 3 case studies that were analysed to conclude on whether companies take accountability for bias in their systems. First, there is an in-depth description of each case and then an analysis of the actions taken by the company to counter the bias. This focuses on the company culture, their response to public outcry and the measures taken to fix their algorithms. The overall conclusion is that in general companies are slow to take accountability for bias found in their systems and only take responsibility when they are faced with bad publicity or a negative public reaction. The conclusion states that companies need to be more proactive testing their systems for bias in order to eradicate it overall.
Descripción : Grado en Administración y Dirección de Empresas con Mención en Internacional
URI : http://hdl.handle.net/11531/80076
Aparece en las colecciones: KE4-Trabajos Fin de Grado

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
Registro de la Propuesta de TFG - Alicia.pdfPREC242,63 kBAdobe PDFVisualizar/Abrir     Request a copy
TFG - Senna-Prime, Alicia .pdfTrabajo Fin de Grado558,16 kBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.