To What Extent do Large Corporations Take Accountability when Race and Gender Bias is Found in their Data Systems and where do Digital Humanities Come into Play?
Resumen
El objetivo de este estudio es descubrir si las grandes empresas asumen su responsabilidad cuando se detectan prejuicios contra las minorías étnicas y las mujeres en sus sistemas de datos, concretamente en IA, algoritmos y grandes modelos de aprendizaje de idiomas. En este caso, la atención se centra en 3 grandes corporaciones: Google, Airbnb y Amazon, todas ellas líderes en sus respectivos sectores. La revisión bibliográfica contextualiza por qué este sesgo en Big Data es un problema que hay que abordar y cómo las humanidades digitales pueden ayudar en el futuro. La sección de investigación se compone de 3 estudios de casos que se analizaron para concluir si las empresas asumen la responsabilidad del sesgo en sus sistemas. En primer lugar, se describe en profundidad cada caso y, a continuación, se analizan las medidas adoptadas por la empresa para contrarrestar el sesgo. El análisis se centra en la cultura de la empresa, su respuesta a las protestas públicas y las medidas adoptadas para corregir sus algoritmos. La conclusión general es que, en general, las empresas tardan en responsabilizarse de los sesgos detectados en sus sistemas y sólo asumen su responsabilidad cuando se enfrentan a una mala publicidad o a una reacción pública negativa. La conclusión es que las empresas deben ser más proactivas a la hora de poner a prueba sus sistemas en busca de sesgos para erradicarlos en general. The purpose of this study is to discover whether large corporations take accountability when bias against ethnic minorities and women are found in their data systems, specifically in AI, algorithms, and Large Language Learning Models. In this case, the focus is on 3 large corporations: Google, Airbnb and Amazon, all leaders in their respective sectors. The literature review gives context as to why this bias in Big Data is an issue that needs to be addressed and how digital humanities can help in future. The research section is comprised of 3 case studies that were analysed to conclude on whether companies take accountability for bias in their systems. First, there is an in-depth description of each case and then an analysis of the actions taken by the company to counter the bias. This focuses on the company culture, their response to public outcry and the measures taken to fix their algorithms. The overall conclusion is that in general companies are slow to take accountability for bias found in their systems and only take responsibility when they are faced with bad publicity or a negative public reaction. The conclusion states that companies need to be more proactive testing their systems for bias in order to eradicate it overall.
Trabajo Fin de Grado
To What Extent do Large Corporations Take Accountability when Race and Gender Bias is Found in their Data Systems and where do Digital Humanities Come into Play?Titulación / Programa
Grado en Administración y Dirección de Empresas con Mención en InternacionalMaterias/ UNESCO
53 Ciencias económicas5311 Organización y dirección de empresas
531107 Investigación operativa
Materias/ categorías / ODS
K4NPalabras Clave
Big Data, Humanidades Digitales, Inteligencia Artificial (IA), Algoritmo, Sesgo, Etnias negras y minoritarias, Pensamiento Crítico, AnalizarBig Data, Digital Humanities, Artificial Intelligence (AI), Algorithm, Bias, Black and Minority Ethnicities (BAME), Critical Thinking, Analyse