Mostrar el registro sencillo del ítem
Big Data and Artificial Intelligence
dc.contributor.advisor | Villegas Galaviz, Carolina | es-ES |
dc.contributor.author | Muñoz Fernández, Gabriela | es-ES |
dc.contributor.other | Universidad Pontificia Comillas, Facultad de Ciencias Económicas y Empresariales | es_ES |
dc.date.accessioned | 2021-06-16T10:54:05Z | |
dc.date.available | 2021-06-16T10:54:05Z | |
dc.date.issued | 2022 | es_ES |
dc.identifier.uri | http://hdl.handle.net/11531/56636 | |
dc.description | Grado en Administración y Dirección de Empresas | es_ES |
dc.description.abstract | Vivimos en una era en la que los algoritmos son la norma y no la excepción. Los sistemas automatizados emiten cada vez más juicios sobre nuestras vidas, como a qué universidad iremos o si podemos obtener un ascenso o un préstamo. Teóricamente, hacer que todos sean juzgados por los mismos estándares debería conducir a una sociedad más equitativa. La investigación muestra que los modelos actuales no están controlados ni cuestionados, sin importar cuán inexactos sean. Lo que es más preocupante, perpetúan la discriminación, impulsando a los afortunados a expensas de los menos afortunados y erosionando nuestro sistema democrático. Demuestra el lado oscuro del Big Data, que ha sido condenado por violar la información personal de las personas. Se han utilizado conjuntos de datos grandes y complicados, y nuevas suposiciones para sugestionar a las personas hacia cosas que no sabían que querían, alertar a los miembros de la familia de que alguien está embarazada, determinar qué noticias ven las personas y cobrar más a los consumidores según sus hábitos de compra. | es-ES |
dc.description.abstract | We live in an era where algorithms are the norm rather than the exception. Automated systems are increasingly making judgments about our lives, such as where we go to university or whether we can get a promotion or a loan. Theoretically, having everyone judged by the same standards should lead to a more equitable society. Research shows that today's models are uncontrolled and unquestioned no matter how inaccurate they are. More worrisome, they perpetuate discrimination, boosting those who are fortunate at the expense of those who are less fortunate and eroding our democratic system. It demonstrates the shadowy side of Big Data, which has been condemned for violating people's personal information. Large, complicated data sets and new assumptions have been used to target individuals for things they didn't realize they wanted, to alert family members that someone is pregnant, to determine what news people see and to charge consumers more depending on their buying habits. | en-GB |
dc.format.mimetype | application/pdf | es_ES |
dc.language.iso | en-GB | es_ES |
dc.rights | Attribution-NonCommercial-NoDerivs 3.0 United States | es_ES |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/us/ | es_ES |
dc.subject | 53 Ciencias económicas | es_ES |
dc.subject | 5306 Economía del cambio tecnológico | es_ES |
dc.subject | 530602 Innovación tecnológica | es_ES |
dc.subject.other | KBN | es_ES |
dc.title | Big Data and Artificial Intelligence | es_ES |
dc.type | info:eu-repo/semantics/bachelorThesis | es_ES |
dc.rights.accessRights | info:eu-repo/semantics/closedAccess | es_ES |
dc.keywords | Big Data, Algoritmo, Modelos matemáticos, Inteligencia artificial, IdC, Silicon Valley | es-ES |
dc.keywords | Big Data, Algorithm, Mathematical models, IoT, Artificial intelligence, Silicon Valley | en-GB |