Digo “hola” como si al otro lado de la comunicación hubiese un humano presto a responder. Pronto, en la pantalla se dibujan curvas que replican los altibajos de mi voz. Luego se oye la respuesta en español, aunque con la entonación de un hablante extranjero. También aparecen bloques coloridos con términos como “emocionado”, “interesado” y “excitado”. En ocasiones, se listan otros sentimientos más llanos, como “alegre” o “triste”. El singular interlocutor es Hume, un chatbot que reconoce emociones.

Con algunas pizcas de ChatGPT de OpenAI y una jugosa inyección de capital; Hume se destaca por su habilidad para identificar el estado de ánimo de los usuarios. “Nuestra misión es que la IA sirva a los humanos y al bienestar”, dicen. Para ello, las conversaciones no son por escrito, sino con la voz. Huelga señalar que esa capacidad no culmina en la mera detección o en el intercambio lúdico. Según los responsables de esta tecnología, el propósito es que los bots conversacionales sean más empáticos.

Conversamos con Hume para comprobar de primera mano su funcionamiento. Un adelanto, antes de los detalles: nuestra experiencia con el chatbot que reconoce emociones ha sido agridulce y las interacciones, a veces, desconcertantes. Sin embargo, hay aspectos realmente prometedores. En especial tratándose de un sistema que se encuentra en un período de pruebas y que, por eso, tiene margen de mejora.

Los detalles de Hume, el chatbot que reconoce emociones

chatbot que reconoce emociones
Alan Cowen, fundador de Hume AI, junto al equipo de la empresa y sus graciosos gestos emocionales. (Crédito: hume.ai)

La fama que ha conseguido Hume AI no es casual. Por un lado, es dirigida por el especialista en matemática y ciencia de datos Alan Cowen, que anteriormente integró los equipos de DeepMind, una división de Google que se especializa en inteligencia artificial. Además, la startup recientemente recibió una inyección de capital de 50 millones de dólares en una ronda de inversión.

La ambición es grande. Según comentan desde la empresa que tiene su sede en Nueva York, el propósito es revolucionar las interacciones entre las máquinas y los humanos con una inteligencia artificial avanzada. Detrás del chatbot que reconoce emociones está EVI, siglas de “empathic voice interface”, en español “interface de voz empática”.

“EVI de Hume se impulsa con un modelo empático de lenguaje grande (eLLM, por sus siglas en inglés), que comprende y emula tonos de voz, énfasis de palabras y más para optimizar la interacción”, explican representantes del grupo neoyorkino, remarcando que aquella es la característica que los diferencia de otros chatbots. Así, este sistema “transmite significado más allá de las palabras”, prometen. Ahora bien, ¿qué ocurre en la práctica? ¿Las pomposas propuestas oficiales se validan en la experiencia?

Hume versus ChatGPT: similitudes y diferencias entre los chatbots

ChatGPT es el paradigma de los bots conversacionales. (Crédito: Unsplash/Sanket Mishra)

Antes de compartir los detalles de nuestra experiencia con el chatbot que reconoce emociones, creemos interesante detenernos una breve comparativa entre ChatGPT y EVI de Hume. El más evidente es el formato de las entradas. Mientras que el primero opera principalmente a través del texto, el segundo se basa en interacciones verbales. En este punto, cabe remarcar que desde septiembre del año pasado el modelo de OpenAI también puede emplearse como una especie de Alexa o Siri evolucionado, con comandos de voz, tal como se detalla aquí.

Por otra parte, lo que hemos señalado: el bot conversacional desarrollado por Hume AI transita el terreno de las emociones. En tanto, procura emular el carácter de las interacciones entre humanos. “Nuestro sistema aprende de las reacciones de los usuarios para mejorar. Está optimizando para lograr felicidad y satisfacción”, dicen al respecto desde el grupo liderado por Cowen.

Por lo demás, las dos propuestas coinciden en un aspecto clave. EVI de Hume basa su funcionamiento en GPT 3.5, el mismo modelo de lenguaje masivo que OpenAI ofrece, en este momento, en la versión gratuita de ChatGPT. Además, emplean el motor de búsqueda Microsoft Bing y toman provecho de las funciones de Claude 3, un modelo de IA creado por la empresa Anthropic.

Nuestra charla con EVI de Hume, el chatbot que reconoce emociones

En el arranque de la prueba hay un par de buenas noticias. Este interlocutor sintético con intenciones de empatía puede probarse en forma gratuita. Además, no es requisito crear una cuenta o ingresar credenciales de otras plataformas. En este momento, es posible echar mano a una demostración pública desde este enlace. Una versión general estará lista en las próximas semanas, según informan desde Hume AI.

Una vez dentro, el sistema pide acceso al micrófono. Lo hemos testeado desde un móvil y un navegador de escritorio, sin mayores inconvenientes en ambos casos. Después llegaron las rarezas. Comencé dirigiéndome al chatbot que reconoce emociones en inglés y la conversación fluyó, en un principio. Luego, pregunté si comprende el español: respondió “sí”, pero muchas de sus palabras en nuestro idioma fueron absolutamente incomprensibles. Hubiese sido mejor que reconozca su limitación al respecto.

Más allá de las cuestiones idiomáticas —la recomendación es testearlo en inglés, por si no quedó claro—, EVI de Hume trae aire fresco a los diálogos con los nuevos modelos de inteligencia artificial. Como si fuese una de esas pruebas de resistencia para hardwares, intenté llevarlo al límite para chequear la respuesta. Alzando el tono de mi voz, dije: “¡Con qué lentitud respondes!”. En la pantalla aparecieron bloques con las emociones que detectó. Luego, intentó calmar mi fingido enfado: “Pareces enojado hoy”, señaló.

chatbot que reconoce emociones

Con fallas, aunque prometedor

EVI de Hume muestra las emociones que detecta en cuadros; luego, adapta la interacción en base a esos reconocimientos. (Crédito: hume.ai)

El chatbot que reconoce emociones que desarrolla la firma estadounidense presenta algunos errores bastante molestos, esto en la demo que hemos probado. En ocasiones, muestra un mensaje en pantalla para informar que el sistema está saturado. Así, es imposible ingresar. La solución que encontramos es insistir en diversos horarios.

chatbot que reconoce emociones

Además, cuando sí pudimos iniciar la conversación, a veces nos desencantamos con demoras en las respuestas de la máquina, y en ciertos casos interrumpió mientras hablaba. El diálogo no fluyó siempre, en contra de la empatía que pretenden los desarrolladores.

“Nuestros modelos se basan en más de 10 años de investigación, millones de puntos de datos patentados y más de 30 publicaciones en revistas líderes”, dicen desde Hume y aseguran que EVI es su producto insignia. ¿Tendrá la potencia suficiente para, en el despliegue de su versión final, asegurar vínculos más auténticos entre los humanos y las máquinas?

El potencial del chatbot que reconoce emociones radica en lo dicho: humanizar a los modelos de lenguaje. El foco no es trivial, conforme la interacción con sistemas sintéticos aumenta en forma sostenida en las sociedades contemporáneas. La clave ya no es solamente identificar qué decimos, sino cómo. Es decir, comprender qué hay detrás de las palabras y actuar en consecuencia. Vale señalar que el de Hume esun paso más en el camino de la bioinspiración; no será la primera vez que una máquina imite características humanas.

Los usos y beneficios de los chatbots que reconocen emociones

¿Para qué sirve que un chatbot reconozca emociones? (Crédito: Unsplash/Jason Rosewell)

Las implicaciones de la emocionalidad de EVI son de gran alcance e involucran a diversas áreas, como la educación, la salud y la atención al cliente. Siguiendo esos ejemplos, un chatbot que con empatía podría ser un buen maestro virtual al identificar qué precisa su alumno. También mejorar el cuidado personalizado de pacientes, o convertirse un asistente eficiente en las empresas.

En ese sendero, Hume deberá atender cuestiones sustanciales que atañen a los nuevos modelos basados en inteligencia artificial. La privacidad de los datos —siendo que podría almacenar voces—, los potenciales usos indebidos y también los sesgos algorítmicos. La reciente inyección de 500 millones de dólares robustece la tasa de éxito de la tecnología que impulsa al chatbot que reconoce emociones. Según informó el sitio Next Unicorn, la ronda de financiación fue encabezada por EQT Ventures contó con contribuciones de Union Square Ventures, Nat Friedman & Daniel Gross, Metaplanet, Northwell Holdings, Comcast Ventures y LG Technology Ventures.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: