Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/108527
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.authorBolander, Thomases-ES
dc.contributor.authorGierasimczuk, Ninaes-ES
dc.contributor.authorOcchipinti Liberman, Andréses-ES
dc.date.accessioned2026-02-03T12:39:59Z-
dc.date.available2026-02-03T12:39:59Z-
dc.date.issued2024-07-26es_ES
dc.identifier.urihttp://hdl.handle.net/11531/108527-
dc.descriptionCapítulos en libroses_ES
dc.description.abstractEste trabajo estudia un agente de aprendizaje que actúa en un entorno parcialmente observable con el que no ha interactuado previamente y sobre el que debe aprender tanto qué aspectos puede observar como cómo sus acciones modifican el entorno. El agente adquiere conocimiento a partir de la experiencia obtenida al ejecutar acciones y observar sus resultados, bajo restricciones observacionales dadas. Se presentan varios algoritmos de aprendizaje capaces de aprender, en un sentido formalmente definido, el máximo conocimiento posible sobre la estructura observable del dominio y sobre los efectos de las acciones. El artículo distingue los distintos niveles de conocimiento del dominio que cada algoritmo puede alcanzar y caracteriza el tipo de observaciones necesarias para lograrlo. Para representar de manera simbólica la información aprendida, los algoritmos emplean lógica epistémica dinámica. El trabajo amplía investigaciones previas basadas en este marco lógico, extendiéndolas desde dominios totalmente observables a entornos parcialmente observables.es-ES
dc.description.abstractWe consider a learning agent in a partially observable environment, with which the agent has never interacted before, and about which it learns both what it can observe and how its actions affect the environment. The agent can learn about this domain from experience gathered by taking actions in the domain and observing their results. We present learning algorithms capable of learning as much as possible (in a well-defined sense) both about what is directly observable and about what actions do in the domain, given the learner’s observational constraints. We differentiate the level of domain knowledge attained by each algorithm, and characterize the type of observations required to reach it. The algorithms use dynamic epistemic logic (DEL) to represent the learned domain information symbolically. Our work continues that of Bolander and Gierasimczuk (2015), which developed DEL-based learning algorithms based to learn domain information in fully observable domains.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.publisherSpringer (Cham, Suiza)es_ES
dc.rightsCreative Commons Reconocimiento-NoComercial-SinObraDerivada Españaes_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/es_ES
dc.sourceLibro: Dick de Jongh on Intuitionistic and Provability Logics, Página inicial: 303, Página final: 351es_ES
dc.titleLearning to act and observe in partially observable domainses_ES
dc.typeinfo:eu-repo/semantics/bookPartes_ES
dc.description.versioninfo:eu-repo/semantics/publishedVersiones_ES
dc.rights.holderes_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsLógica Epistémica Dinámica, Aprendizaje Automático, Entornos Parcialmente Observables, Agentes Inteligentes, Representación Del Conocimientoes-ES
dc.keywordsDynamic Epistemic Logic, Machine Learning, Partially Observable Environments, Intelligent Agents, Knowledge Representationen-GB
Aparece en las colecciones: Artículos

Ficheros en este ítem:
Fichero Tamaño Formato  
20261281321119_Untitled document (2).pdf22,49 kBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.