La startup DAIMON Robotics, dirigida por Michael Yu Wang, ha lanzado un dataset omni-modal para inteligencia física. El objetivo es que las manos robóticas puedan sentir el mundo como los humanos, integrando el tacto con otras señales sensoriales para lograr una manipulación diestra en entornos reales y no estructurados.
Datos táctiles para una manipulación más precisa 🤖
El dataset combina información de cámaras, sensores de fuerza y contacto, junto con datos de posición y torque de cada articulación. Esto permite a los modelos robóticos aprender a adaptar la presión y el agarre según el objeto. Wang busca superar la limitación actual de los robots, que operan a ciegas en tareas finas. Con esta base de datos, los sistemas pueden anticipar la fricción y la deformación de materiales, acercándose a la destreza humana en manufactura y asistencia.
El día que tu robot deje de aplastar el pan de molde 🍞
Hasta ahora, pedirle a un robot que cogiera un huevo era una ruleta rusa culinaria. Con este dataset, quizá dejen de tratar las fresas como si fueran ladrillos. Eso sí, habrá que ver si también aprenden a no confundir un brazo humano con un tubo de ensayo. La revolución táctil promete menos objetos rotos, aunque la ironía es que el primer robot con tacto fino probablemente lo use para evitar hacer la cama.