English   español  
Por favor, use este identificador para citar o enlazar a este item: http://hdl.handle.net/10261/168332
COMPARTIR / IMPACTO:
Estadísticas
logo share SHARE   Add this article to your Mendeley library MendeleyBASE
Visualizar otros formatos: MARC | Dublin Core | RDF | ORE | MODS | METS | DIDL
Exportar a otros formatos:
Título

Multi-modal fashion product retrieval

AutorRubio Romano, Antonio; Yu, LongLong; Simo-Serra, Edgar; Moreno-Noguer, Francesc
Fecha de publicación2017
Citación6th Workshop on Vision and Language (2017)
ResumenFinding a product in the fashion world can be a daunting task. Everyday, e-commerce sites are updating with thousands of images and their associated metadata (textual information), deepening the problem. In this paper, we leverage both the images and textual metadata and propose a joint multi-modal embedding that maps both the text and images into a common latent space. Distances in the latent space correspond to similarity between products, allowing us to effectively perform retrieval in this latent space. We compare against existing approaches and show significant improvements in retrieval tasks on a largescale e-commerce dataset.
DescripciónTrabajo presentado al 6th Workshop on Vision and Language, celebrado en Valencia (España) el 4 de abril de 2017.
URIhttp://hdl.handle.net/10261/168332
Aparece en las colecciones: (IRII) Comunicaciones congresos
Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
multiretro.pdf1,07 MBUnknownVisualizar/Abrir
Mostrar el registro completo
 


NOTA: Los ítems de Digital.CSIC están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.