La incomodidad que sube por la columna cuando ves algo que actúa como humano pero no lo es sigue siendo un gran problema en robótica, especialmente para los robots que están diseñados para verse y hablar como nosotros.
Esta peculiar sensación se llama valle inquietante. Una forma en que los robóticos trabajan para superar este valle es hacer coincidir los movimientos de los labios de un robot con su voz. El miércoles pasado, la Universidad de Columbia anunció buscar que investiga cómo una nueva ola de caras de robots puede hablar de manera más realista.
Hod Lipson, profesor de ingeniería de Columbia que trabajó en la investigación, dijo a CNET que la razón principal por la que los robots son “raros” es que no mueven los labios como lo hacemos nosotros cuando hablan. “Nuestro objetivo es resolver este problema, que ha sido descuidado en la robótica”, dijo Lipson.
No se pierda nada de nuestro contenido técnico imparcial y análisis de laboratorio. Añadir CNET como fuente preferida de Google.
Esta investigación surge a medida que aumenta el entusiasmo en torno a los robots diseñados para su uso en el hogar y el trabajo. Nodo CES 2026 A principios de este mes, por ejemplo, CNET vio un gama de robots Diseñado para interactuar con las personas. Todo desde lo más reciente. Atlas de la dinámica de Boston robot para robots caseros como aquellos que doblar la ropae incluso un robot con forma de tortuga Diseñado para la investigación ambiental, apareció en la feria tecnológica más grande del mundo. Si CES es una indicación, 2026 podría ser un gran año para la robótica de consumo.
En el centro de ellos hay robots humanoides que vienen con cuerpos, rostros y piel sintética que imita la nuestra. La cohorte CES incluyó robots con apariencia humana de Realbotix que podría funcionar en puestos de información o brindar comodidad a las personas, así como un robot lovense diseñado para relaciones equipado con IA para “recordar” conversaciones íntimas.
Pero una discrepancia de una fracción de segundo entre el movimiento de los labios y el habla puede significar la diferencia entre una máquina con la que puedes formar un vínculo emocional y una que es poco más que un animatrónico perturbador.
Entonces, si la gente va a aceptar que los robots humanoides “vivan” entre nosotros en la vida cotidiana, probablemente sea mejor si no nos hacen sentir un poco incómodos cada vez que hablan.
Mira esto: El robot de sincronización labial canta una canción.
Robots de sincronización de labios
Para crear robots con rostros humanos que hablen como nosotros, los labios del robot deben sincronizarse cuidadosamente con el audio de su discurso. El equipo de investigación de Columbia ha desarrollado una técnica que ayuda a que la boca de los robots se mueva como la nuestra centrándose en la forma en que suena el lenguaje.
Primero, el equipo construyó una cara de robot humanoide con una boca que puede hablar (y cantar) de una manera que reduce el efecto valle inquietante. La cara del robot, hecha de piel de silicona, tiene conectores magnéticos para movimientos complejos de los labios. Esto permite que el rostro forme labios que cubren 24 consonantes y 16 vocales.
Mira esto: La cara del robot con sincronización labial emite palabras individuales
Para combinar los movimientos de los labios con el habla, crearon un “canal de aprendizaje” para recopilar datos visuales de los movimientos de los labios. Un modelo de IA utiliza estos datos para el entrenamiento y luego genera puntos de referencia para los comandos motores. Luego, un “transformador de acción facial” transforma las órdenes motoras en movimientos bucales que se sincronizan con el audio.
Utilizando esta estructura, el rostro del robot, llamado Emo, pudo “hablar” en varios idiomas, incluidos idiomas que no formaban parte del entrenamiento, como francés, chino y árabe. El truco es que el marco analiza los sonidos del lenguaje, no el significado detrás del sonido.
“Evitamos el problema específico del lenguaje entrenando un modelo que va directamente del audio al movimiento de los labios”, dijo Lipson. “No existe noción de lenguaje”.
Mira esto: La cara del robot sincroniza los labios
¿Por qué un robot necesita cara y labios?
Los humanos han trabajado junto a robots durante mucho tiempo, pero siempre se han sentido máquinas, no personas: los brazos incorpóreos y de aspecto muy mecánico en las líneas de montaje o el disco grueso que es un robot aspirador que se desliza por el suelo de la cocina.
Sin embargo, a medida que los modelos de lenguaje de IA detrás de los chatbots se vuelven más frecuentes, las empresas de tecnología están trabajando arduamente para enseñar a los bots cómo comunicarse con nosotros a través del lenguaje en tiempo real.
Hay todo un campo de estudio llamado interacción humano-robot que examina cómo los robots deberían coexistir con los humanos, tanto física como socialmente. En 2024, un estudio de Berlín, que contó con 157 participantes, descubrió que la capacidad de un robot para expresar empatía y emociones a través de la comunicación verbal es fundamental para interactuar eficazmente con los humanos. Y otro estudio de 2024 de Italia descubrió que el habla activa era importante para la colaboración entre humanos y robots cuando se trabajaba en tareas complejas como el montaje.
Si vamos a depender de los robots en casa y en el trabajo, debemos poder hablar con ellos como lo hacemos entre nosotros. En el futuro, dice Lipson, la investigación sobre robots de sincronización de labios sería útil para cualquier tipo de robot humanoide que necesite interactuar con personas.
También es fácil imaginar un futuro en el que los robots humanoides sean idénticos a nosotros. Lipson dice que un diseño cuidadoso puede garantizar que las personas comprendan que están hablando con un robot, no con una persona. Un ejemplo sería exigir que los robots humanoides tuvieran piel azul, dice Lipson, “para que no puedan confundirse con los humanos”.













