Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/98090
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.authorVicente Ripoll, María Asunciónes-ES
dc.contributor.authorFernández Peris, Césares-ES
dc.contributor.authorCarrillo Murcia, Irenees-ES
dc.contributor.authorGuilabert, Mercedeses-ES
dc.contributor.authorCarmona Paredes, Rosarioes-ES
dc.contributor.authorCoves Soler, Ángelaes-ES
dc.contributor.authorMartínez Rach, Miguel Onofrees-ES
dc.contributor.authorMira Solves, José Joaquínes-ES
dc.contributor.authorSoto Sanz, Victoriaes-ES
dc.contributor.authorGil Hernández, Evaes-ES
dc.contributor.authorGarcía Torres, Danieles-ES
dc.contributor.authorArroyo Rodríguez, Almudenaes-ES
dc.contributor.authorCalderón Fernández, Maríaes-ES
dc.date.accessioned2025-03-17T15:08:24Z-
dc.date.available2025-03-17T15:08:24Z-
dc.date.issued2024-03-01es_ES
dc.identifier.urihttp://hdl.handle.net/11531/98090-
dc.descriptionCapítulos en libroses_ES
dc.description.abstractEl documento analiza el proyecto LENA, una iniciativa que investiga los sesgos de género en la inteligencia artificial generativa (IAG) aplicada a la creación de imágenes. Desarrollado por la Universidad Miguel Hernández en colaboración con el Instituto de las Mujeres de España, el estudio busca identificar, cuantificar y mitigar la reproducción de estereotipos de género en modelos de IA como DALL-E. A través de experimentos y metodologías de evaluación, se han encontrado evidencias de sesgos que refuerzan estereotipos tradicionales en la representación de profesiones y roles de género. Se proponen soluciones para la mitigación de estos sesgos, destacando la importancia de bases de datos más equitativas y ajustes en los algoritmos.es-ES
dc.description.abstractThe document analyzes the LENA project, an initiative that investigates gender biases in generative artificial intelligence (GAI) applied to image creation. Developed by the Miguel Hernández University in collaboration with the Spanish Institute for Women, the study aims to identify, quantify, and mitigate the reproduction of gender stereotypes in AI models such as DALL-E. Through experiments and evaluation methodologies, evidence has been found of biases that reinforce traditional stereotypes in the representation of professions and gender roles. Solutions are proposed to mitigate these biases, emphasizing the importance of more equitable datasets and algorithm adjustments.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.publisherDykinson (Madrid, España)es_ES
dc.rightsCreative Commons Reconocimiento-NoComercial-SinObraDerivada Españaes_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/es_ES
dc.sourceLibro: Los derechos de las mujeres en la sociedad digital, Página inicial: 66, Página final: 84es_ES
dc.titleFeminismo y tecnología: explorando los sesgos de género en la ia generativa a través del proyecto lena. los derechos de las mujeres en la sociedad digitales_ES
dc.typeinfo:eu-repo/semantics/bookPartes_ES
dc.description.versioninfo:eu-repo/semantics/publishedVersiones_ES
dc.rights.holderes_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsSesgos de género Inteligencia artificial generativa Estereotipos Imágenes digitales Mitigaciónes-ES
dc.keywordsGender biases Generative artificial intelligence Stereotypes Digital images Mitigationen-GB
Aparece en las colecciones: Artículos

Ficheros en este ítem:
Fichero Tamaño Formato  
2025316182052656_CPLIBRO_LENA (1).pdf952,92 kBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.