Mostrar el registro sencillo del ítem

dc.contributor.advisorFernández Fernández, José Luis
dc.contributor.advisorMartin, Kirsten Edrie
dc.contributor.authorVillegas Galaviz, Carolina
dc.contributor.otherUniversidad Pontificia Comillas, Facultad de Empresariales (ICADE)es_ES
dc.date.accessioned2022-11-17T07:58:05Z
dc.date.available2022-11-17T07:58:05Z
dc.date.issued2022
dc.identifier.urihttp://hdl.handle.net/11531/75684
dc.descriptionPrograma de Doctorado en Competitividad Empresarial y Territorial, Innovación y Sostenibilidades_ES
dc.description.abstractCon la introducción de la Inteligencia Artificial (IA) en los negocios, las interacciones cara a cara se minimizan y las decisiones son parte de un proceso más opaco, ahora reducido a datos, que las empresas no siempre comprenden. Dentro de este proceso, las implicaciones morales aparecen cuando quienes desarrollan e implementan la IA ignoran las circunstancias, las vulnerabilidades y el daño específico que se puede causar a las personas. En este escenario, la ética del cuidado es un marco adecuado para abordar los problemas éticos de la IA, ya que pone en primer plano de la toma de decisiones éticas la relevancia del contexto y la consideración de las vulnerabilidades, la interdependencia y la voz o lo que el otro tiene que decir. Esta tesis doctoral presenta un compendio de estudios que en conjunto contribuyen a la intersección de tres áreas principales: la ética empresarial, la ética de la IA y la ética del cuidado. La tesis está compuesta por tres artículos de revistas científicas (uno enviado, uno en revisión y uno en estado Revise & Resubmit) y tres capítulos en colecciones editadas, ya aceptados y en proceso de publicación. El Capítulo 1 examina los marcos conceptuales destacados de la ética de la IA, identifica las fortalezas y limitaciones de cada enfoque en el campo y propone enfoques normativos (incluyendo la ética del cuidado) centrados en el poder y los stakeholders vulnerables. El Capítulo 2 ofrece una contribución conceptual única con la identificación y el análisis de la “distancia moral” como un problema dentro de la IA, y la propuesta de la ética del cuidado para mitigar el problema. En este compendio se desarrollan algunas categorías de la ética del cuidado: relaciones de interdependencia; contexto y circunstancias; vulnerabilidades; y “voz” (lo que el otro tiene que decir). Ahí se propone que estas pueden ayudar a mejorar algunos de los problemas críticos dentro de la ética de la IA. Me refiero a estas categorías en tres capítulos (1, 2 y 6). La ética del cuidado es una teoría moral contextualizada que defiende a los más marginados. Es por eso que algunos académicos han malinterpretado su propósito con altruismo o sentimientos de lástima. Esta tesis doctoral se opone a este punto de vista y analiza algunas de las afirmaciones incorrectas habituales sobre esta teoría ética en el Capítulo 3, donde se hace referencia a lo que la ética del cuidado no es. La última parte de esta tesis consta de tres breves capítulos de libro en colecciones editadas del campo de la ética empresarial. El capítulo 4 es una revisión de la literatura. El Capítulo 5 se centra en la IA y la responsabilidad corporativa y presenta un resumen de cómo y por qué las empresas son responsables de la IA. Por último, el Capítulo 6 presenta el problema de la elaboración de perfiles y la clasificación de personas en IA y propone nuevamente la ética del cuidado como base moral para que la IA analice el daño y el impacto de calificar y puntuar algorítmicamente a las personas. El objetivo subyacente de este compendio es “comprender lo que perdemos y lo que ponemos en juego cuando delegamos nuestros procesos de decisión a los algoritmos”. En ese contexto, la tesis propone la ética del cuidado como un enfoque único y muy necesario para mitigar algunos problemas éticos de los atributos específicos del funcionamiento de la IA: como el bloqueo de la empatía en quienes deciden (causada por la distancia entre el desarrollo y el despliegue de la IA y su impacto) y el refuerzo de los sistemas de poder que afecta a los stakeholders más vulnerables.es_ES
dc.description.abstractWith the introduction of Artificial Intelligence (AI) to business, face-to-face interactions are minimized, and decisions are part of an opaquer process, now reduced to data, that firms do not always understand. Within this process, moral implications appear when those who develop and deploy AI ignore circumstances, vulnerabilities, and the specific harm that can be done to individuals. In this scenario, the ethics of care is an adequate framework to approach AI ethical problems since it brings to the forefront of ethical decision-making the relevance of context and the consideration of vulnerabilities, interdependence, and the voice or what the other has to say. This dissertation folds a compendium of studies that together contribute to the intersection of three main areas: business ethics, AI ethics, and the ethics of care. This doctoral thesis is made up of three journal articles (one submitted, one under review, and one in a Revise & Resubmit state) and three chapters in edited collections, already accepted and in process of publication. Chapter 1 examines the prominent moral approaches to the ethics of AI, identifies the strengths and limitations of each approach to the field, and proposes normative approaches (there the ethics of care) focused on power and vulnerable stakeholders as needed within the examination of AI within business ethics. Chapter 2 offers a unique conceptual contribution with the identification and analysis of moral distance as a problem within AI, and the proposition of the ethics of care to mitigate the issue. In this compendium I develop some categories of the ethics of care: interdependent relationships, context and circumstances, vulnerabilities, and voice (what the other has to say). There I propose these can help ameliorate some of the critical problems within AI ethics. I refer to these categories in three chapters (1, 2, and 6). The ethics of care is a contextualized moral theory that argues for the most marginalized. That is why some scholars have misunderstood its purpose with altruism or feelings of pity. I oppose this view and analyze some of the regular incorrect claims about this ethical theory in Chapter 3, where I refer to what the ethics of care is not. The last part of this thesis entails three brief book chapters in edited collections from the field of business ethics. Chapter 4 is a literature review. Chapter 5 focuses on AI and corporate responsibility and presents a summary of how and why firms are responsible for AI. Lastly, Chapter 6 presents the problem of profiling and classification of people in AI and proposes again the ethics of care as moral grounding for AI to analyze the harm and impact of algorithmically rating and scoring people. The underlaying objective of this compendium is to understand what we lose, and what we put at stake when we delegate our decision processes to algorithms. There to propose the ethics of care as a unique and much needed approach to mitigate some ethical problems of the specific attributes of how AI works: blocking empathy in those who decide (caused by the distance between development and deployment of AI and its impact), reinforcing systems of power, unfairly rating and profiling individuals with data, and marginalizing vulnerable stakeholders.es_ES
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoenes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United States*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/*
dc.subject53 Ciencias económicases_ES
dc.subject5311 Organización y dirección de empresases_ES
dc.subject71 Éticaes_ES
dc.subject7103 Ética de grupoes_ES
dc.subject710303 Ética económicaes_ES
dc.titleBusiness ethics and ethics of care in artificial intelligencees_ES
dc.typeinfo:eu-repo/semantics/doctoralThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES


Ficheros en el ítem

Thumbnail
Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States