
El Roborock Saros Z70 representa un avance relevante en el ámbito de la robótica de consumo al integrar por primera vez un brazo robótico de cinco ejes en un chasis compacto destinado a tareas de limpieza doméstica.
El dispositivo ha sido presentado hoy en el mercado español, tras su aparición inicial en el CES 2025, como un ejemplo del desarrollo aplicado de tecnologías de percepción avanzada, navegación autónoma y manipulación ligera en entornos no estructurados.
El sistema de manipulación, denominado OmniGrip, constituye la principal novedad técnica del modelo. Se trata de un brazo robótico plegable, integrado en la estructura del robot, con capacidad de despliegue automático para retirar objetos ligeros del entorno de trabajo (hasta 300 gramos).
Esta incorporación marca una evolución desde los robots móviles puramente reactivos hacia sistemas autónomos con capacidad de interacción física básica con su entorno, una línea de desarrollo con aplicaciones potenciales más allá del uso doméstico.
Manipulación ligera y arquitectura cinemática integrada
El brazo OmniGrip presenta una cinemática de cinco grados de libertad, lo que permite movimientos coordinados en múltiples planos sin necesidad de una pinza articulada compleja. Su uso se limita actualmente a la retirada de elementos blandos o ligeros —papeles, calcetines, toallitas—, pero su integración estructural en un robot con altura inferior a 8 cm (7,98 cm) requiere una arquitectura de plegado eficiente y una planificación de movimientos en espacio limitado.
El control del brazo puede realizarse de forma autónoma mediante los algoritmos de navegación del robot o manualmente a través de la app Roborock. El sistema puede programarse para intervenir ante obstáculos que interrumpen la ruta de limpieza, ejecutando rutinas predefinidas para cada tipo de objeto detectado.
Sistema de percepción y navegación basada en visión
El Saros Z70 sustituye el tradicional sensor láser Lidar por un sistema de visión compuesto por cámaras RGB con IA integrada, sensores 3D ToF (Time-of-Flight) y un módulo láser vertical lateral, denominado VertiBeam™, destinado a mejorar la detección en zonas bajas y perimetrales. Esta combinación permite el reconocimiento de hasta 108 objetos mediante inferencia visual y segmentación por IA, sin necesidad de etiquetado dinámico.
La navegación se gestiona a través del sistema StarSight™ 2.0, que combina SLAM visual y mapeado tridimensional con capacidad de detección de obstáculos en tiempo real. El láser vertical lateral contribuye a mejorar el rendimiento en espacios con obstáculos bajos, como cables sueltos o patas de sillas, tradicionalmente problemáticos para sensores Lidar horizontales.
Hardware de limpieza y adaptabilidad física
El dispositivo incorpora un sistema de succión con una capacidad máxima de 22.000 Pa, lo que lo sitúa en la gama alta de aspiradores robotizados en términos de potencia. El módulo de limpieza incluye un cepillo principal sin cerdas (FreeFlow™), un cepillo lateral motorizado elevable (FlexiArm Riser) y dos mopas giratorias capaces de elevarse automáticamente en superficies húmedas.
La base del chasis, denominada AdaptiLift™, ajusta su altura de forma automática en función de la superficie, permitiendo la superación de obstáculos de hasta 4 cm, incluidos cambios de habitación o elementos estructurales como alfombras de pelo largo. El conjunto está diseñado para mantener un perfil bajo que facilite el acceso a zonas debajo de muebles.
Infraestructura periférica y funciones embebidas
El Saros Z70 opera con una estación base multifunción (versión 4.0), que integra carga rápida (2,5 h), lavado térmico de mopas a 80 °C y extracción automática en modo «solo aspirado». Esta base permite el mantenimiento autónomo de los elementos de limpieza, reduciendo la intervención manual y prolongando los ciclos operativos sin asistencia externa.
En el plano del software, el dispositivo opera mediante la app Roborock, que incorpora el módulo SmartPlan™ 2.0, un sistema de planificación inteligente de rutas y parámetros de limpieza en función del entorno y hábitos del usuario. El sistema es capaz de adaptar potencia de succión, volumen de agua y despliegue del brazo robótico de forma dinámica.
El robot también es compatible con comandos de voz personalizados, asistentes virtuales (Alexa, Google Home, Siri), y soporta el protocolo Matter 1.4, lo que facilita su integración en ecosistemas domóticos heterogéneos. La app permite la configuración de accesos directos mediante Launcher Widgets, habilitando la ejecución de rutinas desde dispositivos móviles sin necesidad de navegación en la app.
Visión computacional y detección de animales
Una función específica del sistema visual es la detección automática de mascotas en el entorno, que activa una detención temporal del ciclo de limpieza y puede generar alertas o capturas de imagen a través de la función Pet Snaps. El módulo de cámara en el brazo OmniGrip se utiliza también para videollamadas y localización visual remota de animales mediante la opción Search for the Pet.
Estas funciones implican un nivel de integración entre los sistemas de percepción visual, el software embarcado de reconocimiento de patrones y la interfaz remota del usuario, todo gestionado dentro del ecosistema Roborock. A pesar de estar orientado al hogar, el nivel de autonomía operativa y la manipulación ligera lo posicionan como plataforma potencial para validación de algoritmos de movilidad autónoma en entornos dinámicos.
Implicaciones técnicas y proyección en robótica de servicio
Desde un enfoque de ingeniería, el Saros Z70 representa un hito en la transición de robots móviles autónomos hacia sistemas de interacción física ligera con el entorno. La incorporación de un manipulador integrado, la combinación de sensores de visión tridimensional y la planificación dinámica de acciones lo convierten en una plataforma de interés para laboratorios de robótica de servicio, desarrolladores de software de percepción y fabricantes de sistemas embebidos con capacidades IA.
Si bien el brazo robótico tiene por ahora un rango funcional limitado, su integración estructural y capacidad de control local y remoto ofrece un precedente para futuros desarrollos en manipulación autónoma en espacios compartidos, un ámbito con aplicaciones industriales, logísticas y asistenciales.