Por favor, use este identificador para citar o enlazar a este item:
http://hdl.handle.net/10261/113097
COMPARTIR / EXPORTAR:
SHARE BASE | |
Visualizar otros formatos: MARC | Dublin Core | RDF | ORE | MODS | METS | DIDL | DATACITE | |
Título: | retmov3 |
Autor: | Serrano-Gotarredona, Teresa CSIC ORCID ; Ministerio de Ciencia e Innovación (España) | Palabras clave: | Sensor Moving objects |
Fecha de publicación: | 2012 | Editor: | CSIC - Instituto de Microelectrónica de Sevilla (IMS-CNM) | Citación: | retmov3 [Integrated Circuit], 2012 | Resumen: | [EN]: The VULCANO project aims at exploiting the great potential of the AER (Address Event Representation) technology for very high speed vision sensing and processing as well as for mechanical actuators and motors control in Neuro-robotics.
In conventional vision, a video camera captures sequences of still frames or images, each of which has to be processed by sophisticated algorithms if automatic recognition tasks are desired (in automotion, robotics, etc.).
AER is based on a different concept which mimics the structure and information coding of the brain. In AER each sensor pixel sends information events when it detects a given level of a visual property (motion, contrast, luminance, ...). This way, the sensor output is a continuous flow of information (spatial and temporal) which is not restricted to discrete frames. This continuous flow of visual information is sent to a hierarchical structure, which mimics the neurocortex, and extracts relevant information in a continuous and parallel manner event after event, without waiting for frames. The AER philosophy allows to assemble scalable neurocortical systems: for example, to augment the catalog of known objects one only needs to add more AER modules in parallel which does not degrade speed (as happens in the brain). [ES]: En el proyecto VULCANO se pretende explotar el gran potencial de la tecnología AER (Address Event Representation) para sensar y procesar visión a muy alta velocidad, así como para actuar sobre los subsistemas de percepción y accionamiento en el ámbito de la Neuro-robótica. En visión convencional, una cámara de video capta secuencias de fotogramas, cada uno de los cuales debe ser tratado por sofisticados algoritmos si se quieren realizar tareas procesamiento y reconocimiento automático (en automoción, robótica, etc.). AER se basa en un concepto diferente, imitando la estructura y codificación de información del cerebro. En AER cada pixel del sensor emite eventos de información cuando 'capta' un determinado nivel de alguna propiedad visual (movimiento, contraste, luminosidad, ...). De esta manera, la salida del sensor es un flujo continuo de información (espacial y temporal) que no está restringida a fotogramas discretos. Este flujo de información visual se lleva a una estructura jerárquica, que imita la corteza cerebral, y que va extrayendo información relevante de una manera continua y paralela evento tras evento, sin esperar a fotogramas. La filosofía AER permite construir sistemas neurocorticales escalables: por ejemplo, para aumentar el catálogo de objetos a reconocer se añaden más módulos AER en paralelo sin que el sistema pierda velocidad (al igual que ocurre en el cerebro). |
Descripción: | Sensor with a 128x128 pixel resolution able to detec fast moving objects | Versión del editor: | http://www.imse-cnm.csic.es/es/catalogo_chips.php | URI: | http://hdl.handle.net/10261/113097 |
Aparece en las colecciones: | (IMSE-CNM) Catálogo de Circuitos Integrados |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
retmov3.jpg | 27,7 kB | JPEG | Visualizar/Abrir |
CORE Recommender
Page view(s)
269
checked on 19-abr-2024
Download(s)
10
checked on 19-abr-2024
Google ScholarTM
Check
Este item está licenciado bajo una Licencia Creative Commons