Estás leyendo
Investigadores de Singapur buscan que la computación neuromórfica de Intel ayude a que los robots sientan

Investigadores de Singapur buscan que la computación neuromórfica de Intel ayude a que los robots sientan

El sentido del tacto es lo suficientemente sensible como para apreciar la diferencia entre superficies que difieren por una sola capa de moléculas, sin embargo, la mayoría de los robots de hoy en día operan únicamente en el procesamiento visual. Los investigadores de la NUS esperan cambiar esto usando la piel artificial que han desarrollado recientemente. Según sus investigaciones puede detectar el tacto más de 1.000 veces más rápido que el sistema nervioso sensorial humano e identificar la forma, textura y dureza de los objetos 10 veces más rápido que el parpadeo de un ojo.

En este sentido, permitir un sentido del tacto similar al de los humanos en la robótica podría mejorar significativamente la funcionalidad actual e incluso conducir a nuevos casos de uso. Por ejemplo, los brazos robóticos dotados de piel artificial podrían adaptarse fácilmente a los cambios en los productos fabricados en una fábrica, utilizando la detección táctil para identificar y agarrar objetos desconocidos con la cantidad adecuada de presión para evitar el deslizamiento. Asimismo, la capacidad de sentir y percibir mejor el entorno también podría permitir una interacción humano-robótica más estrecha y segura, o acercarnos a la automatización de las tareas quirúrgicas dando a los robots quirúrgicos el sentido del tacto del que carecen hoy en día.

Si bien la creación de la piel artificial es un paso para dar vida a esta visión, también requiere un chip que pueda sacar conclusiones precisas basadas en los datos sensoriales de la piel en tiempo real, mientras opera a un nivel de potencia lo suficientemente eficiente como para ser desplegado directamente dentro del robot. “La creación de un sensor de piel artificial ultrarrápido resuelve aproximadamente la mitad del rompecabezas de hacer a los robots más inteligentes”, ha afirmado Benjamin Tee, profesor adjunto del Departamento de Ciencia e Ingeniería de Materiales de la NUS y del Instituto de Innovación y Tecnología de la Salud de la NUS. “También necesitan un cerebro artificial que pueda finalmente lograr la percepción y el como otra pieza crítica del rompecabezas. Nuestra demostración de un sistema de piel de Inteligencia Artificial con chips neuromórficos como el Intel Loihi supone un gran avance hacia la y la escalabilidad”.

Este novedoso sistema robótico desarrollado por investigadores de la Nacional de Singapur comprende un sistema de cerebro artificial que imita las redes neuronales biológicas, que puede funcionar con un procesador neuromórfico de bajo consumo como el chip Loihi de Intel, y que está integrado con sensores artificiales de piel y visión.

Para abrir nuevos caminos en la percepción robótica, el equipo de la NUS comenzó a explorar el potencial de la tecnología neuromórfica para procesar datos sensoriales de la piel artificial usando el chip de investigación neuromórfica Loihi de Intel. En su experimento inicial, los investigadores utilizaron una mano robótica equipada con la piel artificial para leer Braille, pasando los datos táctiles a Loihi, a través de la nube, para convertir los micro baches que la mano sentía en un significado semántico. De este modo, Loihi logró una precisión de más del 92 % en la clasificación de las letras del Braille, al tiempo que utilizaba 20 veces menos energía que un procesador estándar Von Neuman.

Basándose en este trabajo, el equipo de la NUS mejoró aún más las capacidades de percepción robótica combinando datos de visión y de tacto en la red neuronal de spiking. Para ello, encargaron a un robot que clasificara varios contenedores opacos que contenían diferentes cantidades de líquido, utilizando los datos sensoriales de la piel artificial y una adaptada al contexto. De este modo, los investigadores utilizaron los mismos sensores táctiles y de visión para probar la capacidad del sistema de percepción para identificar el deslizamiento rotacional, que es importante para conseguir un agarre estable.

Una vez que estos datos sensoriales fueron recogidos, el equipo los envió a una GPU y al chip de investigación neuromórfica Loihi de Intel para comparar las capacidades de procesamiento. Los resultados, que fueron presentados en el Robotics: Science and Systems  esta semana, muestran que la combinación de la visión adaptada al contexto y el tacto utilizando una red neuronal de picos permitió un 10 % más de precisión en la clasificación de objetos en comparación con un sistema de sólo visión. Además, demostraron el compromiso de la tecnología neuromórfica para alimentar tales dispositivos robóticos, con Loihi lograron procesar los datos sensoriales un 21 % más rápido que una GPU de alto rendimiento, mientras que utilizaban 45 veces menos energía.

Estamos emocionados con estos resultados. Demuestran que el sistema neuromórfico es una pieza prometedora del rompecabezas para combinar múltiples sensores para mejorar la percepción del robot. Es un paso hacia la construcción de robots fiables y de bajo consumo de energía que puedan responder rápida y apropiadamente en situaciones inesperadas.Harold Soh, Profesor Asistente del Departamento de Ciencias de la Computación de la NUS.
Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.    Ver Política de cookies
Privacidad