Mostrar el registro sencillo del ítem

dc.contributor.authorVicente Ripoll, María Asunciónes-ES
dc.contributor.authorFernández Peris, Césares-ES
dc.contributor.authorCarrillo Murcia, Irenees-ES
dc.contributor.authorGuilabert, Mercedeses-ES
dc.contributor.authorCarmona Paredes, Rosarioes-ES
dc.contributor.authorCoves Soler, Ángelaes-ES
dc.contributor.authorMartínez Rach, Miguel Onofrees-ES
dc.contributor.authorMira Solves, José Joaquínes-ES
dc.contributor.authorSoto Sanz, Victoriaes-ES
dc.contributor.authorGil Hernández, Evaes-ES
dc.contributor.authorGarcía Torres, Danieles-ES
dc.contributor.authorArroyo Rodríguez, Almudenaes-ES
dc.contributor.authorCalderón Fernández, Maríaes-ES
dc.date.accessioned2025-03-17T15:08:24Z
dc.date.available2025-03-17T15:08:24Z
dc.date.issued2024-03-01es_ES
dc.identifier.urihttp://hdl.handle.net/11531/98090
dc.descriptionCapítulos en libroses_ES
dc.description.abstractEl documento analiza el proyecto LENA, una iniciativa que investiga los sesgos de género en la inteligencia artificial generativa (IAG) aplicada a la creación de imágenes. Desarrollado por la Universidad Miguel Hernández en colaboración con el Instituto de las Mujeres de España, el estudio busca identificar, cuantificar y mitigar la reproducción de estereotipos de género en modelos de IA como DALL-E. A través de experimentos y metodologías de evaluación, se han encontrado evidencias de sesgos que refuerzan estereotipos tradicionales en la representación de profesiones y roles de género. Se proponen soluciones para la mitigación de estos sesgos, destacando la importancia de bases de datos más equitativas y ajustes en los algoritmos.es-ES
dc.description.abstractThe document analyzes the LENA project, an initiative that investigates gender biases in generative artificial intelligence (GAI) applied to image creation. Developed by the Miguel Hernández University in collaboration with the Spanish Institute for Women, the study aims to identify, quantify, and mitigate the reproduction of gender stereotypes in AI models such as DALL-E. Through experiments and evaluation methodologies, evidence has been found of biases that reinforce traditional stereotypes in the representation of professions and gender roles. Solutions are proposed to mitigate these biases, emphasizing the importance of more equitable datasets and algorithm adjustments.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.publisherDykinson (Madrid, España)es_ES
dc.rightsCreative Commons Reconocimiento-NoComercial-SinObraDerivada Españaes_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/es_ES
dc.sourceLibro: Los derechos de las mujeres en la sociedad digital, Página inicial: 66, Página final: 84es_ES
dc.titleFeminismo y tecnología: explorando los sesgos de género en la ia generativa a través del proyecto lena. los derechos de las mujeres en la sociedad digitales_ES
dc.typeinfo:eu-repo/semantics/bookPartes_ES
dc.description.versioninfo:eu-repo/semantics/publishedVersiones_ES
dc.rights.holderes_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsSesgos de género Inteligencia artificial generativa Estereotipos Imágenes digitales Mitigaciónes-ES
dc.keywordsGender biases Generative artificial intelligence Stereotypes Digital images Mitigationen-GB


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

  • Artículos
    Artículos de revista, capítulos de libro y contribuciones en congresos publicadas.

Mostrar el registro sencillo del ítem

Creative Commons Reconocimiento-NoComercial-SinObraDerivada España
Excepto si se señala otra cosa, la licencia del ítem se describe como Creative Commons Reconocimiento-NoComercial-SinObraDerivada España