Mi robot me imita

Cuanto entablamos una conversación con una persona amistosa, con la que estamos conectando bien, y con la que nos sentimos a gusto, tendemos a realizar cierto reflejo, muy sutil, de su comportamiento no verbal. Esta imitación parcial nos ayuda a construir la relación interpersonal, y es muy positiva dentro del proceso de comunicación. Es tan positiva, que se está estudiando la posibilidad de que este proceso de imitación pueda programarse en robots para que nuestra interacción con ellos sea más cómoda y agradable.

El impresionante avance de la Robótica y la Inteligencia Artificial posibilitará que, en un futuro muy próximo, dispongamos de robots de asistencia para personas, que requerirán manejar de forma muy cuidadosa la información personal socioemocional, por ejemplo, para ayudar a una persona mayor a vivir de forma segura e independiente. Sin embargo, hay personas que pueden sentir incomodidad al interactuar con robots, especialmente las más mayores.

Se están realizando muchísimas investigaciones para tratar de evaluar y suavizar esta incomodidad y, entre ellas, un equipo liderado por Katarzyna Pasternak, de la Universidad de Miami, ha publicado este mismo mes de marzo de 2021 el artículo «Let’s be friends! A rapport-building 3D embodied conversational agent for the Human Support Robot» (1), donde se plantean si un robot con la capacidad de conversar que pudiera reflejar las expresiones faciales y los movimientos de cabeza de su interlocutor mejoraría la experiencia del usuario.

Las tres pruebas del robotRobot HSR de ToyotaPara ello, configuraron un robot Toyota Human Support Robot (HSR) con un interfaz gráfico que permite interactuar y conversar (Embodied Conversational Agent, ECA), a modo de «rostro» del robot, y un software de aprendizaje automático que identificaba la postura y la expresión facial de la persona que interactuaba con el robot. Diseñaron tres tipos de experimentos: el primero evaluaba el impacto sobre el interlocutor cuando el robot imitaba su postura; el segundo el impacto cuando reflejaba su expresión facial; y el tercero, con el robot imitando ambas (la expresión facial más la postura).

El primer experimento tenía a su vez tres partes: En la primera, el ECA mira a la persona y su cara se mueve según los movimientos del usuario, mientras el robot permanece inmóvil; en la segunda, sólo se mueve la cabeza del robot siguiendo la dirección hacia la que se mueve el usuario, mientras la cara del ECA se queda inmóvil; y en la tercera, tanto la cara como la cabeza del robot se mueven en función de los movimientos del usuario. Los participantes coincidieron en que la interacción parecía más «natural» si sólo se movía la cabeza del robot, y no el rostro.

El segundo experimento incluía la activación o no del software de detección de emociones a través de la expresión facial del interlocutor, para que el ECA reflejara la misma emoción. Todos los participantes expresaron que la interacción incluyendo el reflejo de las emociones en ocasiones era exagerada, pero por lo general, más divertida y atractiva que sin el reflejo de expresiones. También indicaron que a veces el ECA no reflejaba la misma emoción que ellos sentían o representaban.

El tercer experimento, que combinaba el reflejo facial y la imitación de la postura, también comparaba dos situaciones, que la doble imitación estuviera activada o que no se realizara ninguna imitación. Todos los participantes afirmaron que la imitación de expresión facial y postura por parte del robot hacía que resultara más agradable y sencillo comunicarse con él.

C3POAunque estos resultados sólo corresponden a una parte muy inicial de la investigación, sí que parecen indicar de manera muy clara que, de la misma manera que, cuando hablamos con otra persona, preferimos que haya cierta sincronización sutil (habitualmente inconsciente cuando nos encontramos a gusto en la conversación) en la postura, el equilibrio y la armonía, también nos sentimos a gusto cuando esta sincronización la llevan a cabo interlocutores artificiales o robóticos. Parece ser que en un futuro muy cercano habrá quedado descartada la imagen fría y distante de los robots de las películas de ciencia ficción (salvo C3PO, que obviamente era un muy buen robot de protocolo…).

Si quieres aprender más sobre Comunicación No Verbal, síguenos y echa un vistazo a nuestro MÁSTER EN COMUNICACIÓN NO VERBAL Y HABILIDADES DIRECTIVAS, TÍTULO PROPIO DE LA UNIVERSIDAD EUROPEA MIGUEL DE CERVANTES. 

(1) Pasternak, K. et al. Let’s be friends! A rapport-building 3D embodied conversational agent for the Human Support Robot. arXiv e-prints (2021). https://ui.adsabs.harvard.edu/abs/2021arXiv210304498P

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *