Creando empatía artificial

Generando empatía artificial

El camino hacia un comportamiento empático más realista en los robots sigue siendo largo y complicado. ¶ Crédito: Ansira.com

Ya es bastante difícil para los humanos leer las emociones de los demás y mostrar el nivel adecuado de empatía. Pedirle a una máquina que piense, sienta y actúe como una persona empuja los límites de la inteligencia artificial (IA) actual.

Sin embargo, para diseñar mejores robots de servicio, chatbots y sistemas de IA generativa, es fundamental dotar a los dispositivos informáticos de un sentido de empatía, la capacidad de entender lo que otra persona está experimentando. Si bien los agentes artificiales actuales pueden simular formas básicas de compasión, simplemente responden a palabras clave u otras señales básicas y emiten respuestas codificadas.

Según Anthony G. Vaccaro, investigador postdoctoral asociado en la Neuroendocrinología de los Lazos Sociales (NEST) de la Universidad del Sur de California, “los sistemas actuales son insuficientes. Aún falta mucho para llegar al punto en el que la IA pueda detectar sentimientos y funcionar de manera constante con la empatía y comprensión adecuadas”.

Por ahora, “la empatía de la máquina sigue siendo un problema altamente abstracto”, afirma Joanna Karolina Malinowska, profesora asociada de filosofía en la Universidad Adam Mickiewicz de Polonia y miembro del Centro de Neurociencia Cognitiva de la universidad. “Desarrollar sistemas que comprendan las señales de comportamiento humano complejas, como la ambivalencia y la incertidumbre, es extraordinariamente desafiante”.

Sin emociones prestadas

Al interactuar con un chatbot en línea o un robot de servicio, es probable que te encuentres con un sistema que incorpora alguna forma de empatía; es fundamental para ganarse la confianza y el apoyo de los seres humanos. Sin embargo, aunque las palabras que provienen del dispositivo pueden sonar reconfortantes en ocasiones, estos sistemas de enfoque único también pueden parecer artificiales e insinceros.

El problema radica en un problema básico: la empatía es increíblemente compleja e intrincada. “Hay muchos factores que intervienen en la empatía y en cómo las personas la perciben, incluyendo sus preferencias y cómo responden en diferentes situaciones”, señala Vaccaro. Lamentablemente, la IA actual no puede adaptarse ni ajustarse a rasgos individuales, como la preferencia por el humor frente a las afirmaciones derivadas del mismo evento.

Intentar replicar todo el espectro del pensamiento y los sentimientos humanos es difícil porque, si bien todos los humanos son diferentes, los robots deben operar con un conjunto restringido de datos que están codificados en el sistema, explica Malinowska. Reconocer e interpretar palabras en diferentes contextos ya es lo suficientemente difícil, pero estos sistemas también deben lidiar con expresiones faciales y lenguaje corporal. “Incluso los mejores sistemas de hoy en día se equivocan frecuentemente. Esto no es sorprendente, porque los humanos también interpretamos erróneamente las emociones de los demás con frecuencia”, dice ella.

No sorprende que la línea entre el comportamiento convincente y manipulador en la IA pueda ser delgada. Algunas características despiertan simpatía humana y pueden reforzar la tendencia de una persona a empatizar con los robots, mientras que otras pueden acentuar la naturaleza artificial de la interacción, lo que puede llevar a la irritación, el miedo, la frustración, la vergüenza o incluso la agresión en el usuario”, comenta Malinowska.

Un problema subyacente es que los humanos tienden a antropomorfizar los sistemas robóticos, señala Malinowska. A veces eso es algo bueno, otras veces es un problema. Como resultado, igualar el comportamiento del robot a una situación o caso de uso específico puede resultar sorprendentemente difícil. Por ejemplo, un robot de apoyo en un hospital y un robot de desactivación de explosivos interactúan con los humanos de formas muy diferentes, y es probable que los usuarios tengan reacciones muy diferentes a cada uno de ellos.

Estos robots también deben evocar diversas emociones en sus usuarios: los bots de cuidado pueden, e incluso en algunas situaciones deberían, despertar empatía, mientras que en el caso de los robots militares esto suele ser indeseable. “Para evitar errores de diseño y lograr los resultados deseados, debemos comprender los factores subyacentes que impulsan este proceso”, explica Malinowska.

El objetivo, entonces, es desarrollar mejores algoritmos, pero también sistemas multimodales que no solo respondan a palabras o texto, sino que también incorporen visión artificial, reconocimiento de voz y tono, y otras señales arraigadas en la biología humana. “Una mejor empatía artificial gira en torno a reflejar de manera más precisa las motivaciones detrás del comportamiento humano”, dice Vaccaro.

Más allá de la razón

Investigadores universitarios y empresas están avanzando con robots de apoyo emocional, robots de servicio y otras herramientas para niños, adultos con demencia y otros. Entre ellas se encuentran empresas como Groove X, que desarrolló un robot móvil con 50 sensores por $2,825 que tiene como objetivo ser un compañero en el hogar, y Moxie, un robot social que ayuda a niños con desafíos sociales, emocionales y de desarrollo.

No obstante, el camino hacia un comportamiento empático más realista en los robots aún es largo y difícil. Aunque gran parte del énfasis se centra en construir mejores modelos de lenguaje, cada vez se presta más atención al desarrollo de IA multimodal que pueda actuar más como los cinco sentidos que poseen los seres humanos. Por ahora, llenar todos los vacíos, incluidos los matices del lenguaje y del lenguaje corporal entre idiomas y culturas, sigue siendo algo así como una “caja negra”, según dice Malinowska.

Vaccaro cree que los métodos tradicionales de codificar el comportamiento en sistemas informáticos tienen demasiadas limitaciones, especialmente en áreas difusas como la empatía. Por ejemplo, si un robot ve un video de una persona experimentando dolor después de caerse e incorpora esto a su aprendizaje, podría imitar la reacción para conectar con una persona. Sin embargo, tal respuesta probablemente parecerá cómica o absurda, porque un ser humano puede deducir que no hay empatía real involucrada.

En cambio, el equipo de investigación de Vaccaro ha explorado la idea de utilizar el aprendizaje automático para ayudar a los sistemas a tener alguna “sensación” de lo que está experimentando una persona real, con énfasis en la vulnerabilidad. Aunque, por ahora, es imposible que un robot realmente sienta el dolor de una caída, el dispositivo al menos puede comenzar a descifrar lo que está sucediendo y cómo interpreta los sentimientos una persona. “Es una forma de hacer que los sistemas de IA se vuelvan objetivamente más inteligentes y reducir el riesgo de que un sistema se comporte de manera inaceptable o antisocial”, señala Vaccaro.

Faltando palabras

Otro desafío es abordar una dependencia excesiva de los sistemas de apoyo emocional. Por ejemplo, un robot que brinda apoyo a pacientes con demencia podría ofrecer compañía, así como estimulación cognitiva, dice Laurel Riek, profesora de ciencias de la computación e ingeniería en la Universidad de California, San Diego, y directora del Laboratorio de Robótica en Atención Médica de la universidad.

Sin embargo, “las personas pueden volverse muy apegadas a los robots, especialmente cuando brindan apoyo social o terapéutico”, explica Riek. El mismo robot podría agravar una sensación de aislamiento social e introducir riesgos de seguridad y autonomía. Riek promueve el concepto de “salidas para los humanos”. “Todas las interacciones con un robot eventualmente terminarán, por lo que es importante asegurarse de que los usuarios formen parte del proceso de crear un plan de salida”, dice.

Existen otras preocupaciones. Riek dice que estas incluyen que los actores malintencionados utilicen enfoques basados en la empatía para engañar y manipular a los seres humanos, el desplazamiento de los trabajadores de la salud y otros, y las preocupaciones sobre la privacidad de los datos, especialmente cuando los dispositivos robóticos se utilizan para forjar conexiones humanas en aplicaciones de atención médica.

No obstante, el concepto de empatía artificial en las máquinas sin duda avanzará. Concluye Malinowska: “Tomará mucho tiempo antes de que los sistemas robóticos y la IA estén al nivel de los seres humanos en lo que respecta a la empatía artificial. Pero seguimos ganando comprensión y progresando”.

Samuel Greengard es un autor y periodista con sede en West Linn, Oregón, EE. UU.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Encontrar respuestas (sobre la mejor manera de encontrar respuestas)

Los científicos de la computación en la Universidad del Sur de California consideraron cuáles son las mejores represe...

Inteligencia Artificial

Haz de ChatGPT un Mejor Desarrollador de Software SoTaNa es un Asistente de IA de Código Abierto para el Desarrollo de Software

Cómo hacemos lo que hacemos ha cambiado rápidamente en los últimos años. Hemos comenzado a utilizar asistentes virtua...

Inteligencia Artificial

Acélere los resultados comerciales con mejoras del 70% en el rendimiento del procesamiento de datos, entrenamiento e inferencia con Amazon SageMaker Canvas

Amazon SageMaker Canvas es una interfaz visual que permite a los analistas de negocios generar predicciones precisas ...

Inteligencia Artificial

Aumente la productividad del agente con la integración de Salesforce para el análisis de llamadas en vivo.

Como agente de un centro de contacto, ¿preferirías enfocarte en tener conversaciones productivas con los clientes o d...

Inteligencia Artificial

Evaluación de los Modelos de Lenguaje Grandes Conozca a AgentSims, un Marco de Inteligencia Artificial Basado en Tareas para Pruebas Completas y Objetivas

Los LLM han cambiado la forma en que se piensa en el procesamiento del lenguaje (NLP), pero persiste el problema de s...

Inteligencia Artificial

Google AI presenta Visually Rich Document Understanding (VRDU) un conjunto de datos para un mejor seguimiento del progreso de la tarea de comprensión de documentos

Cada vez se crean y almacenan más documentos por parte de las empresas en la era digital de hoy en día. Aunque estos ...