Mostrar el registro sencillo del ítem

dc.contributor.advisorVillegas Galaviz, Carolinaes-ES
dc.contributor.authorMuñoz Fernández, Gabrielaes-ES
dc.contributor.otherUniversidad Pontificia Comillas, Facultad de Ciencias Económicas y Empresarialeses_ES
dc.date.accessioned2021-06-16T10:54:05Z
dc.date.available2021-06-16T10:54:05Z
dc.date.issued2022es_ES
dc.identifier.urihttp://hdl.handle.net/11531/56636
dc.descriptionGrado en Administración y Dirección de Empresases_ES
dc.description.abstractVivimos en una era en la que los algoritmos son la norma y no la excepción. Los sistemas automatizados emiten cada vez más juicios sobre nuestras vidas, como a qué universidad iremos o si podemos obtener un ascenso o un préstamo. Teóricamente, hacer que todos sean juzgados por los mismos estándares debería conducir a una sociedad más equitativa. La investigación muestra que los modelos actuales no están controlados ni cuestionados, sin importar cuán inexactos sean. Lo que es más preocupante, perpetúan la discriminación, impulsando a los afortunados a expensas de los menos afortunados y erosionando nuestro sistema democrático. Demuestra el lado oscuro del Big Data, que ha sido condenado por violar la información personal de las personas. Se han utilizado conjuntos de datos grandes y complicados, y nuevas suposiciones para sugestionar a las personas hacia cosas que no sabían que querían, alertar a los miembros de la familia de que alguien está embarazada, determinar qué noticias ven las personas y cobrar más a los consumidores según sus hábitos de compra.es-ES
dc.description.abstractWe live in an era where algorithms are the norm rather than the exception. Automated systems are increasingly making judgments about our lives, such as where we go to university or whether we can get a promotion or a loan. Theoretically, having everyone judged by the same standards should lead to a more equitable society. Research shows that today's models are uncontrolled and unquestioned no matter how inaccurate they are. More worrisome, they perpetuate discrimination, boosting those who are fortunate at the expense of those who are less fortunate and eroding our democratic system. It demonstrates the shadowy side of Big Data, which has been condemned for violating people's personal information. Large, complicated data sets and new assumptions have been used to target individuals for things they didn't realize they wanted, to alert family members that someone is pregnant, to determine what news people see and to charge consumers more depending on their buying habits.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoen-GBes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject53 Ciencias económicases_ES
dc.subject5306 Economía del cambio tecnológicoes_ES
dc.subject530602 Innovación tecnológicaes_ES
dc.subject.otherKBNes_ES
dc.titleBig Data and Artificial Intelligencees_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/closedAccesses_ES
dc.keywordsBig Data, Algoritmo, Modelos matemáticos, Inteligencia artificial, IdC, Silicon Valleyes-ES
dc.keywordsBig Data, Algorithm, Mathematical models, IoT, Artificial intelligence, Silicon Valleyen-GB


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States