_
_
_
_
Código abierto
Columna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Una gramática de las emociones

Es posible que nuestro cerebro haga cálculos para descifrar el lenguaje corporal de la gente, pero solemos infravalorar gravemente el formidable problema computacional que ello supone

Una bailarina de la compañía de Blanca Li, durante una actuación en Granada.
Una bailarina de la compañía de Blanca Li, durante una actuación en Granada.Miguel Angel Molina (EFE)
Javier Sampedro

Los humanos somos mentirosos por naturaleza, pero la mayoría no lo hacemos muy bien. El problema no es lo que decimos, sino lo que no sabemos que decimos. Cuando hablamos con naturalidad solemos poner caras, hacer aspavientos, encoger los hombros o inclinar el torso, pero al mentir adoptamos una rigidez cadaverina que se nos nota a 20 metros. La clase alta británica tiene fama de hablar sin mover las manos —hay quien lo hace sin mover ni los labios—, pero esa actitud no ayuda a un lord ni a una lady a convencer a nadie. Parece que están mintiendo, justamente, aun cuando no sea el caso. Fuera de esa élite que juega al cricket y lleva unos sombreros indescriptibles en Ascot, sin embargo, los humanos expresamos con el cuerpo casi tanto, o a veces más, que moviendo la lengua. ¿Creías que esto iba a quedar excluido de la jurisdicción de las matemáticas? Error. ¿Y de las ciencias de la computación? Más error aún.

Imagina una bailarina profesional ejecutando unos movimientos delante de una insulsa pantalla verde. Ahora le pides que se mueva expresando felicidad, enfado, satisfacción, miedo, tristeza, lo que sea. La bailarina lleva un traje de la firma XSENS equipado con 17 sensores que registran todos sus movimientos y las relaciones entre ellos y los digitaliza con un software avanzado. Ese es exactamente el experimento que ha hecho un equipo multidisciplinar coordinado por el Instituto Max Planck de Estética Empírica. Oh, sí, ese instituto existe, y está en Fráncfort. Con todos esos datos, la neuropsicóloga cognitiva Julia Christensen y sus colegas han creado un software llamado Emokine que puede analizar a gran escala los movimientos del conjunto del cuerpo relacionados con las emociones. En este caso son movimientos muy controlados —producidos por una bailarina profesional—, pero Emokine ya está disponible para cualquier investigación relacionada. La intención de Christensen es reunir muchos más datos que se obtengan con su software en cualquier lugar del mundo. La científica del Max Planck está convencida de que las secuencias complejas de movimientos ayudarán a avanzar en la investigación de las emociones.

Es mucho más fácil mentir con el habla que con el cuerpo. Si viéramos las tripas matemáticas de Emokine acabaríamos mareados por los conceptos que usa la máquina para deducir las emociones que estamos expresando con el lenguaje corporal: velocidad lineal, aceleración lineal, velocidad angular, aceleración angular, momento lineal, grado de contracción de las piernas, distancia al centro de gravedad del cuerpo (no tan permanente como querría Battiato), sacudida integral, ángulo de la cabeza tanto a los lados como de frente y espacio convexo del cráneo, todo ello con su media, su mediana, su valor máximo y su desviación absoluta y registrado 240 veces por segundo. Ya te dije que te ibas a marear.

Haz que tu opinión importe, no te pierdas nada.
SIGUE LEYENDO

Es posible que nuestro cerebro haga algunos de esos cálculos para descifrar el lenguaje corporal de la gente, aunque desde luego no somos conscientes de ello. Pero no somos conscientes de casi nada lo que subyace a nuestra percepción y nuestra actividad mental. Como abrimos los ojos y vemos lo que hay ahí delante sin el menor esfuerzo, solemos infravalorar gravemente el formidable problema computacional que ello supone. En cualquier caso, es muy probable que Emokine, la criatura de la doctora Christensen y el Instituto Max Planck de Estética Empírica, aprenda pronto a entender el lenguaje corporal mejor que nosotros. Es decir, para leer nuestras emociones mejor que nosotros.

Salvo algún ingeniero grillado de Silicon Valley, ningún científico cree que las máquinas tengan emociones. Quizá algún día lleguen a tenerlas, aunque no estamos ahí ni de lejos. Pero una cosa es tener emociones y otra muy distinta es reconocerlas. Lo segundo está cada vez más cerca, así que ve aprendiendo a mover las manos.

Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_