Meta ha anunciado dos avances hacia el desarrollo de robots de IA capaces de realizar «desafiantes habilidades sensoriomotoras».
En un comunicado de prensa el viernes, la empresa anunció que ha desarrollado una forma de que los robots aprendan de las interacciones de humanos del mundo real «entrenando un modelo de representación visual de propósito general (un córtex visual artificial) a partir de un gran número de vídeos egocéntricos».
Los vídeos proceden de un conjunto de datos de código abierto de Meta, que según la empresa muestra a personas realizando tareas cotidianas como «ir al supermercado y cocinar el almuerzo».
Una de las formas en que el equipo de investigación de la IA de Facebook (FAIR) de Meta está trabajando para entrenar a los robots es desarrollando una corteza visual artificial, que en los humanos es la región del cerebro que permite a las personas convertir la visión en movimiento.
El conjunto de datos que se utiliza para enseñar a los robots, Ego4D, contiene «miles de horas de vídeo de cámaras portátiles» de personas participantes en la investigación que realizan actividades cotidianas como cocinar, hacer deporte, limpiar y manualidades.
Según el comunicado de prensa, el equipo FAIR creó «CortexBench», que consiste en «17 tareas sensoriomotoras diferentes en simulación, que abarcan locomoción, navegación y copiado diestro y móvil».
«Los entornos visuales abarcan desde planos infinitos hasta escenarios de sobremesa, pasando por escaneados fotorrealistas en 3D de espacios interiores del mundo real», afirma la empresa.
Al anunciar el segundo desarrollo, el equipo FAIR de Meta dice que ha utilizado la coordinación adaptativa de habilidades (sensoriomotoras) (ASC) en un robot Spot de Boston Dynamics para «reorganizar una variedad de objetos» en un «apartamento de 185 metros cuadrados y un laboratorio universitario de 65 metros cuadrados».
Cuando se utilizó en el robot Spot, Meta afirma que ASC logró un «rendimiento casi perfecto» y tuvo éxito en 59 de 60 episodios, siendo capaz de superar «inestabilidades de hardware, fallos de recogida y perturbaciones adversas como obstáculos en movimiento o caminos bloqueados».
El vídeo compartido por Meta muestra al robot trasladando diversos objetos de un lugar a otro.
El equipo de FAIR afirma que pudo lograrlo enseñando al robot Spot a «moverse por una casa invisible, recoger objetos fuera de lugar y colocarlos en el sitio correcto».
En la prueba, el robot Spot utilizó «su noción aprendida del aspecto de las casas» para completar la tarea de reordenar los objetos