Publicidad
Publicidad

El nuevo sentido para los robots será el tacto

Gracias a nuevas tecnologías disponibles en código abierto, la inteligencia artificial contará ahora con “sentido del tacto”.
vie 05 noviembre 2021 06:00 AM
robots y tacto
El metaverso no sólo explora nuevos mundos digitales, también la interacción entre robots y humanos.

Si bien hemos observado grandes avances en inteligencia artificial gracias a la visión computacional (Computer Vision), que se basa en cámaras, y a la habilidad de sistemas para detectar y generar sonidos y audio, el “sentido del tacto” en computadoras y en robots no había tenido grandes avances hasta ahora.

Aunque no existen aún soluciones que se puedan mencionar, las bases han sido sentadas para incrementar el desarrollo en esta área y de acuerdo a investigaciones pronto podremos ver robots incursionando con esta nueva habilidad en campos como la telemedicina, la agricultura o el arte, por mencionar sólo algunos.

Se trata de una contribución por parte de los científicos de Meta AI, que por meses han trabajado en el hardware y en el correspondiente soporte de software, que han liberado como código abierto para que la comunidad científica a nivel mundial pueda colaborar, extenderlo y crear diversas soluciones integrando esta información a sus sistemas de inteligencia artificial y así dar a sus robots un sentido del tacto.

Publicidad

Estos son los avances en robótica

El sensor táctil de alta resolución DIGIT fue creado el año pasado, e irónicamente, funciona con cámaras, pero ha resultado una opción viable por su tamaño y su facilidad para fabricarse. Debido a que ya había estado disponible como código abierto, ahora existe una empresa -GelSight- que los fabrica y los vende para que cualquiera pueda tener acceso a ellos.

Para quienes no tienen acceso al sensor, o prefieren experimentar antes de conseguirlo, Meta AI ofrece un simulador que les ayudará con la investigación e implementación, además de la librería de software (el framework para desarrollo) necesaria para lograrlo. Esta librería se llama PyTouch y fue también liberada como código abierto.

Para soluciones que no requieren alta resolución, han presentado además ReSkin, una “piel sensorial”, también de código abierto, que es versátil, escalable y de bajo costo.

La idea es que los investigadores tengan suficientes opciones y puedan trabajar con estos datos y crear soluciones que amplien el rango de las tareas que llevan a cabo sus robots en el mundo real.

Con Computer Vision se trabaja con el aspecto y la apariencia de los objetos reales, pero esta nueva información táctil permitirá obtener un mejor entendimiento de su fisicalidad, pues distintos materiales tienen diferentes cualidades.

¿Por qué Meta quiere que los robots ‘sientan’?

Los demos que han realizado muestran una mano mecánica tomando objetos frágiles, como huevos o uvas, y la delicadeza al tomarlos que otorga la IA, gracias al sensor y al entrenamiento por software, se debe a la tecnología de machine learning.

Además de los robots, que podrían ser entrenados por doctores para detectar el tipo de problemas que revela un examen físico, por ejemplo, esta tecnología se podría implementar en accesorios de realidad aumentada o mixta, que sean capaces de obtener y grabar la información táctil generada en un lugar, para reproducirla remotamente y poder recibir, digamos, unas palmaditas de confort de alguien que no esté cerca cuando más lo necesitemos.

La apuesta de la empresa desde que anunció su cambio de nombre ha estado muy focalizada en el desarrollo de metaverso, un tema que Zuckerberg consideró como la evolución del mundo que hoy conocemos, sin embargo para poder tener mundos combinados con tecnología es vital contar con recursos robóticos que puedan hacer más real la interacción que están teniendo los humanos con las máquinas.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad