La UEx logra que los robots “comprendan” el espacio en el que se mueven
- Investigadores del Grupo Robolab de la Escuela Politécnica de la Universidad de Extremadura han publicado este estudio, pionero en su ámbito, en la prestigiosa revista Applied Sciences
- A través de los llamados grafos de escena los robots son capaces de crear un “mapa inteligente” donde no solo se representa la geometría del entorno, sino también su significado
10/11/2025. Uno de los grandes retos de la robótica actual es conseguir que los robots entiendan el mundo que les rodea de una forma parecida a como lo hacemos las personas. Hasta ahora, los robots utilizan mapas muy precisos, basados en distancias, obstáculos y espacios libres. Estos mapas funcionan bien en entornos controlados, pero resultan poco útiles cuando el robot necesita convivir, colaborar o comunicarse con humanos y entornos dinámicos.
En este contexto, investigadores del laboratorio RoboLab de la Universidad de Extremadura han desarrollado una nueva arquitectura que revoluciona la forma en que los robots construyen ese llamado “mapa mental”. Su propuesta da la vuelta al proceso tradicional: en lugar de crear primero un mapa físico y luego añadirle etiquetas, el robot comienza pensando en los conceptos y lo que cada uno de ellos implica a nivel espacial o de uso.
“El problema es que los mapas tradicionales carecen de significado: el robot sabe que hay un objeto en cierto lugar, pero no sabe qué es ni para qué sirve. Para que una máquina pueda desenvolverse en un entorno humano, necesita comprender el espacio de una forma más rica y parecida a la nuestra: con conceptos como cocina, puerta, mesa o taza”, explica Noé Zapata, uno de los investigadores implicados en el estudio.
Ahí es donde los investigados han aplicado la idea de los “grafos de escena”. Se trata de una especie de “mapa mental” para el robot, donde no sólo se representa la geometría del entorno, sino también su significado. De esta manera, el robot no solo sabe dónde están las cosas, sino también qué son y cómo se relacionan entre sí. Gracias a esto, puede entender órdenes más naturales, como “ve a la cocina y tráeme la taza que está sobre la mesa”.
El sistema se basa en pequeños programas autónomos llamados “agentes de concepto”, especializados en detectar elementos concretos como habitaciones, puertas, objetos o personas. Estos agentes trabajan de manera colaborativa, combinando su información para formar directamente el grafo de escena.
El resultado es un método mucho más eficiente y escalable, capaz de crear mapas conceptuales útiles sin necesidad de construir previamente un mapa de obstáculos.
“Este avance representa un paso importante hacia una verdadera inteligencia robótica: máquinas capaces de entender su entorno y comunicarse usando los mismos conceptos que las personas”, concluye el investigador.
El trabajo, titulado Concept-Guided Exploration: Building Persistent, Actionable Scene Graphs, ha sido publicado en la revista Applied Sciences. Sus autores son Noé Zapata, Gerardo Pérez, Alejandro Torrejón, Pedro Núñez y Pablo Bustos, investigadores del grupo RoboLab (Robótica y Visión Artificial) de la Universidad de Extremadura.
https://doi.org/10.3390/app152011084
Fuente: Servicio de Difusión de la Cultura Científica
