Robots humanoides, el cuerpo de la IA
Dos tecnologías que nacieron para estar juntas entran en su etapa de efervescencia.
Un robot ya no es “tecnología emergente”.
Los tenemos en casa (lavadoras, termostatos y aspiradoras autónomas), dominan la producción de automóviles y de aparatos electrónicos (más de 500 mil instalados en 2022, en estas y otras industrias) y nos prestan servicios varios hace muchos años (en medicina, logística y seguridad, por ejemplo).
Los que sí son nuevos son los robots “general purpose”, que pueden llevar a cabo diversas tareas: adiós especialización (atornillar, cortar, soldar, lavar la ropa, volar cámaras), bienvenida generalización.
Estos robots se ven diferentes y piensan diferente.
Su apariencia es humanoide: apenas natural que una máquina con múltiples propósitos se inspire en el patrón oro de la versatilidad (el ser humano).
Su cerebro es la Inteligencia Artificial de última generación: aplicabilidad ilimitada implica comprensión (y comunicación) ilimitadas, algo que un LLM ya parece en condiciones de proveer.
Ellos son -en otras palabras- el cuerpo que le falta a la IA para acercarse a una experiencia “completa” del mundo físico.
Atlas, Figure, Digit, Optimus: la evolución de los humanoides
En los últimos años muchos robots humanoides han llegado a un estado de desarrollo que sugiere pronta implementación real.
El Figure 1 (de la empresa del mismo nombre) sonó hace pocos días por un acuerdo con OpenAI: él es el cuerpo, Sam Altman le pone el cerebro.
Sus inversionistas son un festival 4.0: Microsoft, Nvidia, Jeff Bezos, Intel y OpenAI (por supuesto). Importante también su acuerdo con BMW para arrancar con el deployment y seguir con la investigación conjunta.
Digit, de Agility Robotics, se distingue porque no es plantígrado como nosotros sino digitígrado como un gato o un perro (de ahí el nombre).
Entre los inversionistas está Amazon, que lo está testeando en sus bodegas - un entorno donde poderse agachar justo al frente de una estantería sin tumbarla con las rodillas es una gran ventaja.
Completa el trío el Atlas de Boston Dynamics (a su vez propiedad de de Hyundai Motors); la empresa es más conocida por su perro Spot, pero lleva muchos años desarrollando su pequeño humanoide (mide 1 metro y medio) - muy bueno para caminar y saltar y bailar, un poco más primitivo para agarrar y manipular.
(No me olvidé de Optimus Gen-2, el bien conocido humanoide de Tesla, presentado a finales del año pasado - sólo tomé la decisión editorial de dejarlo fuera de la foto…)
Cada uno de ellos se enfrenta con dos grandes retos:
La paradoja de Moravec, o sea lo difícil que es hacer las cosas que a un humano le salen más instintivas (o sea “fáciles”) y -cómo vimos-
La generalización, esa habilidad de salir de la “zona de confort” (o sea ir más allá de la tarea puntual asignada).
Es fácil programar un robot para hacer una cosa en particular; es tremendamente complejo cuando esa cosa nace de miles de años de evolución orgánica.
A menos que -además de un cuerpo poderoso- no lo dotemos también de una capacidad adicional: la de aprender a usarlo por sí solo.
El ingrediente que faltaba: un cerebro generativo
Uno de los grandes logros del Figure 1 fue… aprender a preparar café.
La palabra clave aquí no es “preparar” - al estar usando una máquina automática la complejidad se reduce a abrir la tapa, meter el pod y apretar un botón.
La magia está en “aprender”: no fue programado para hacerlo, sólo observó -una y otra vez- la misma tarea ejecutada por un ser humano. Cómo un niño chiquito.
El video no nos muestra las innumerables tentativas frustradas, ni las horas y días pasados para superar obstáculos aparentemente sencillos.
Sin duda el proceso ha sido lento; pero un robot tiene todo el tiempo del mundo.
Además, una vez aprendida una tarea puede “enseñarsela” a otro robot con una simple transmisión de datos.
Si has visto “The Matrix” te acordarás de cómo le cargan a Neo el programa de artes marciales: un entrenamiento de la mente antes que del cuerpo. En la película esto era posible porque (spoiler alert) el cuerpo no era físico; entre robots se puede dar porque el cuerpo que aprende es una réplica exacta del que enseña.
Pronto saldrán de fábrica listos a “hacer de todo” y bien dispuestos a aprender nuevas tareas.
El corazón de este “general purpose” será la Inteligencia Artificial General (AGI); mientras no lleguemos ahí, mucho se podrá alcanzar con la IA disponible hoy.
Me llena de curiosidad hasta donde puede llegar la potencialización mútua de esta tecnologías.
¿Y a ti?
Le doy la buenvenida a las 31 personas que decidieron suscribirse a “almetaverso” en las últimas 4 semanas: gracias por la confianza.
Si tienes a alguien conocido de habla hispana que sigue con interés las tecnologías emergentes (IA, realidad extendida, web3…), considera reenviarle este mensaje para que también se suscriba.
Nuevamente gracias.
Citas y estímulos
Esta misma tarde (12 de marzo de 2024) nos vemos en el webinar de WeDAOLatam: aquí el enlace para escribirte. Vamos a hablar de nuevas habilidades blandas para la era de la IA.
*
El viernes 15 de marzo estaré en el séptimo congreso internacional de innovación de Dokuma, en Bogotá (Colombia). Junto a David Zuleta estaremos presentando “Tech Teams, estrategias para el éxito - 4 actitudes clave en la adopción de tecnologías emergentes”. Si te interesa, inscríbete aquí y nos vemos (¡es presencial!)
*
Muchas personas me han estado preguntando por caminos de aprendizaje para la Inteligencia Artificial generativa: cómo adoptarla en el trabajo, cómo entenderla para usarla mejor. Estoy pensando en organizar un curso “full immersion” para ayudar: si te interesa contesta a este correo y hablamos.