San Rafael, Mendoza viernes 19 de abril de 2024

Las máquinas ya son capaces de detectar nuestras emociones

Por medio de algoritmos de inteligencia artificial, las computadoras ahora saben si estamos tristes, alegres o frustrados; para qué se usa

 Foto: LA NACION

La celebrada serie televisiva Lie to Me estaba basada en la investigación de Paul Ekman, un psicólogo estadounidense que sostiene que las expresiones faciales de las emociones no son determinadas culturalmente, sino que son universales y tienen, por consiguiente, un origen biológico. Ahora, la tecnología está avanzando sobre este tema. Varias empresas cuentan con programas y soluciones que permiten analizar las emociones de los consumidores, pacientes y empleados.

«Las emociones influyen en todos los aspectos de nuestras vidas. Sin embargo al pasar cada vez más tiempo en el mundo digital, nuestra habilidad para comunicar y mostrar emociones se está perdiendo», dice Gabi Zijderveld, vicepresidente de marketing de Affectiva, una compañía estadounidense nacida del Massachusetts Institute of Technology.

Los métodos más frecuentes para medir las respuestas emocionales sobre marcas, productos y publicidades son las encuestas y los grupos focales o focal groups. «Actualmente, muchos encuestados no quieren o no pueden comunicar lo que sienten o piensan sobre determinada marca o producto», comenta la ejecutiva de Affectiva. Las nuevas herramientas, en cambio, son imperceptibles para la persona que se analiza.

Los participantes ven un anuncio o video y Affdex emplea algoritmos que identifican las emociones retratadas. «Nuestro cliente observa online cómo los espectadores están respondiendo emocionalmente a su contenido digital. Hasta la fecha nuestra empresa cuenta con el repositorio de información sobre emociones más grande del mundo, que proceden de 11.000 unidades de medios de comunicación, más de 2,6 millones de videos de caras y fue utilizado por 1400 marcas en más de 75 países», revela Zijderveld.

Muchas empresas han utilizado este programa para seleccionar las mejores escenas de sus publicidades, evaluar sus efectos y hacer un análisis predictivo del mercado. También lo utilizaron canales de TV para probar pilotos de programas y analizar en qué momentos emitir sus anuncios. «Además nos asociamos con ooVoo, compañía de videochat online, para crear una plataforma inteligente de video, que suma emoción al chat para ofrecer una experiencia más atractiva y auténtica», dice Zijderveld.

Otro jugador es Emotient, firma estadounidense que, a través de su servicio Web, también analiza las expresiones faciales. «El cliente sube a nuestra Web un video, lo procesa y obtiene resultados en forma inmediata. Entregamos informes de nueve grandes emociones expresadas y de lo que llamamos tres indicadores clave de rendimiento, esto es, los de atención, compromiso y sentimiento», explica Rick Bilodeau, responsable de marketing en Emotient. Además de esto, el programa permite ayudar a los médicos a saber el estado emocional de su paciente.

Otro producto disponible es Simple Emotion, pero en este caso se reconoce el estado emocional del usuario por medio de su voz. «Nuestro sistema extrae características del audio de voz que ya están etiquetadas como una emoción específica», explica Matt Fernández, CEO de Simple Emotion, también de Estados Unidos. De la misma forma, Emotions Analytics, de Beyond Verbal, una compañía israelí, analiza e identifica las entonaciones vocales. «Lo estamos incluyendo en aplicaciones y dispositivos para que las máquinas puedan entender las emociones humanas y puedan interactuar mejor con las personas», dice Dan Emodi, vicepresidente de marketing de Beyond Verbal.

Fernández cree que la información emocional podrá ayudar a que las máquinas puedan interactuar con los seres humanos de forma más natural. «Creo que las interacciones entre los equipos y seres humanos se aproximarán bastante a la interacción que hoy tenemos entre las personas», predice. Por último, Emodi concluye: «Vislumbramos un mundo en que las máquinas entiendan nuestras emociones y puedan interactuar con nosotros en un nivel emocional. Desde nuestras entonaciones vocales no sólo se conocen nuestras emociones, sino también nuestra salud. Nuestra misión final es utilizar estas capacidades para ofrecer un mejor bienestar, una mejor calidad de vida y, en última instancia, una mejor salud»

 

 

Fuente: http://www.lanacion.com.ar/1779687-las-maquinas-ya-son-capaces-de-detectar-nuestras-emociones

Por Cintia Perazo  | Para LA NACION
Facebooktwitterredditpinterestlinkedinmail

Sé el primero en comentar en «Las máquinas ya son capaces de detectar nuestras emociones»

Deja un comentario

Tu dirección de correo electrónico no será publicada.


*