Creando empatía artificial
Generando empatía artificial
![Representación de un chip similar al cerebro. El camino hacia un comportamiento empático más realista en los robots sigue siendo largo y complicado. ¶ Crédito: Ansira.com](https://ai.miximages.com/cacm.acm.org/system/assets/0004/6682/111623_Ansira_Empathy-in-AI-.large.jpg?1700147550&1700147550)
Ya es bastante difícil para los humanos leer las emociones de los demás y mostrar el nivel adecuado de empatía. Pedirle a una máquina que piense, sienta y actúe como una persona empuja los límites de la inteligencia artificial (IA) actual.
Sin embargo, para diseñar mejores robots de servicio, chatbots y sistemas de IA generativa, es fundamental dotar a los dispositivos informáticos de un sentido de empatía, la capacidad de entender lo que otra persona está experimentando. Si bien los agentes artificiales actuales pueden simular formas básicas de compasión, simplemente responden a palabras clave u otras señales básicas y emiten respuestas codificadas.
Según Anthony G. Vaccaro, investigador postdoctoral asociado en la Neuroendocrinología de los Lazos Sociales (NEST) de la Universidad del Sur de California, “los sistemas actuales son insuficientes. Aún falta mucho para llegar al punto en el que la IA pueda detectar sentimientos y funcionar de manera constante con la empatía y comprensión adecuadas”.
Por ahora, “la empatía de la máquina sigue siendo un problema altamente abstracto”, afirma Joanna Karolina Malinowska, profesora asociada de filosofía en la Universidad Adam Mickiewicz de Polonia y miembro del Centro de Neurociencia Cognitiva de la universidad. “Desarrollar sistemas que comprendan las señales de comportamiento humano complejas, como la ambivalencia y la incertidumbre, es extraordinariamente desafiante”.
- Gafas utilizan sonar e inteligencia artificial para interpretar posturas del cuerpo superior en 3D
- Datos de navegación web recopilados con más detalle de lo que se conocía anteriormente.
- Type-Hinting DataFrames para análisis estático y validación en tiempo de ejecución
Sin emociones prestadas
Al interactuar con un chatbot en línea o un robot de servicio, es probable que te encuentres con un sistema que incorpora alguna forma de empatía; es fundamental para ganarse la confianza y el apoyo de los seres humanos. Sin embargo, aunque las palabras que provienen del dispositivo pueden sonar reconfortantes en ocasiones, estos sistemas de enfoque único también pueden parecer artificiales e insinceros.
El problema radica en un problema básico: la empatía es increíblemente compleja e intrincada. “Hay muchos factores que intervienen en la empatía y en cómo las personas la perciben, incluyendo sus preferencias y cómo responden en diferentes situaciones”, señala Vaccaro. Lamentablemente, la IA actual no puede adaptarse ni ajustarse a rasgos individuales, como la preferencia por el humor frente a las afirmaciones derivadas del mismo evento.
Intentar replicar todo el espectro del pensamiento y los sentimientos humanos es difícil porque, si bien todos los humanos son diferentes, los robots deben operar con un conjunto restringido de datos que están codificados en el sistema, explica Malinowska. Reconocer e interpretar palabras en diferentes contextos ya es lo suficientemente difícil, pero estos sistemas también deben lidiar con expresiones faciales y lenguaje corporal. “Incluso los mejores sistemas de hoy en día se equivocan frecuentemente. Esto no es sorprendente, porque los humanos también interpretamos erróneamente las emociones de los demás con frecuencia”, dice ella.
No sorprende que la línea entre el comportamiento convincente y manipulador en la IA pueda ser delgada. Algunas características despiertan simpatía humana y pueden reforzar la tendencia de una persona a empatizar con los robots, mientras que otras pueden acentuar la naturaleza artificial de la interacción, lo que puede llevar a la irritación, el miedo, la frustración, la vergüenza o incluso la agresión en el usuario”, comenta Malinowska.
Un problema subyacente es que los humanos tienden a antropomorfizar los sistemas robóticos, señala Malinowska. A veces eso es algo bueno, otras veces es un problema. Como resultado, igualar el comportamiento del robot a una situación o caso de uso específico puede resultar sorprendentemente difícil. Por ejemplo, un robot de apoyo en un hospital y un robot de desactivación de explosivos interactúan con los humanos de formas muy diferentes, y es probable que los usuarios tengan reacciones muy diferentes a cada uno de ellos.
Estos robots también deben evocar diversas emociones en sus usuarios: los bots de cuidado pueden, e incluso en algunas situaciones deberían, despertar empatía, mientras que en el caso de los robots militares esto suele ser indeseable. “Para evitar errores de diseño y lograr los resultados deseados, debemos comprender los factores subyacentes que impulsan este proceso”, explica Malinowska.
El objetivo, entonces, es desarrollar mejores algoritmos, pero también sistemas multimodales que no solo respondan a palabras o texto, sino que también incorporen visión artificial, reconocimiento de voz y tono, y otras señales arraigadas en la biología humana. “Una mejor empatía artificial gira en torno a reflejar de manera más precisa las motivaciones detrás del comportamiento humano”, dice Vaccaro.
Más allá de la razón
Investigadores universitarios y empresas están avanzando con robots de apoyo emocional, robots de servicio y otras herramientas para niños, adultos con demencia y otros. Entre ellas se encuentran empresas como Groove X, que desarrolló un robot móvil con 50 sensores por $2,825 que tiene como objetivo ser un compañero en el hogar, y Moxie, un robot social que ayuda a niños con desafíos sociales, emocionales y de desarrollo.
No obstante, el camino hacia un comportamiento empático más realista en los robots aún es largo y difícil. Aunque gran parte del énfasis se centra en construir mejores modelos de lenguaje, cada vez se presta más atención al desarrollo de IA multimodal que pueda actuar más como los cinco sentidos que poseen los seres humanos. Por ahora, llenar todos los vacíos, incluidos los matices del lenguaje y del lenguaje corporal entre idiomas y culturas, sigue siendo algo así como una “caja negra”, según dice Malinowska.
Vaccaro cree que los métodos tradicionales de codificar el comportamiento en sistemas informáticos tienen demasiadas limitaciones, especialmente en áreas difusas como la empatía. Por ejemplo, si un robot ve un video de una persona experimentando dolor después de caerse e incorpora esto a su aprendizaje, podría imitar la reacción para conectar con una persona. Sin embargo, tal respuesta probablemente parecerá cómica o absurda, porque un ser humano puede deducir que no hay empatía real involucrada.
En cambio, el equipo de investigación de Vaccaro ha explorado la idea de utilizar el aprendizaje automático para ayudar a los sistemas a tener alguna “sensación” de lo que está experimentando una persona real, con énfasis en la vulnerabilidad. Aunque, por ahora, es imposible que un robot realmente sienta el dolor de una caída, el dispositivo al menos puede comenzar a descifrar lo que está sucediendo y cómo interpreta los sentimientos una persona. “Es una forma de hacer que los sistemas de IA se vuelvan objetivamente más inteligentes y reducir el riesgo de que un sistema se comporte de manera inaceptable o antisocial”, señala Vaccaro.
Faltando palabras
Otro desafío es abordar una dependencia excesiva de los sistemas de apoyo emocional. Por ejemplo, un robot que brinda apoyo a pacientes con demencia podría ofrecer compañía, así como estimulación cognitiva, dice Laurel Riek, profesora de ciencias de la computación e ingeniería en la Universidad de California, San Diego, y directora del Laboratorio de Robótica en Atención Médica de la universidad.
Sin embargo, “las personas pueden volverse muy apegadas a los robots, especialmente cuando brindan apoyo social o terapéutico”, explica Riek. El mismo robot podría agravar una sensación de aislamiento social e introducir riesgos de seguridad y autonomía. Riek promueve el concepto de “salidas para los humanos”. “Todas las interacciones con un robot eventualmente terminarán, por lo que es importante asegurarse de que los usuarios formen parte del proceso de crear un plan de salida”, dice.
Existen otras preocupaciones. Riek dice que estas incluyen que los actores malintencionados utilicen enfoques basados en la empatía para engañar y manipular a los seres humanos, el desplazamiento de los trabajadores de la salud y otros, y las preocupaciones sobre la privacidad de los datos, especialmente cuando los dispositivos robóticos se utilizan para forjar conexiones humanas en aplicaciones de atención médica.
No obstante, el concepto de empatía artificial en las máquinas sin duda avanzará. Concluye Malinowska: “Tomará mucho tiempo antes de que los sistemas robóticos y la IA estén al nivel de los seres humanos en lo que respecta a la empatía artificial. Pero seguimos ganando comprensión y progresando”.
Samuel Greengard es un autor y periodista con sede en West Linn, Oregón, EE. UU.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- El Otro Lado de los Contratos de Datos Despertando la Responsabilidad del Consumidor
- Tres formas increíbles de innovar tu negocio
- Investigadores de UCLA presentan ‘Reformular y Responder’ (RaR) un nuevo método de inteligencia artificial que mejora la comprensión de las LLMs de las preguntas humanas
- 6 Problemas de LLMs que LangChain está tratando de evaluar
- Prediciendo Touchdowns de Futbol Americano con Aprendizaje Automático
- Explorando Google Cloud Platform Una Visión General Completa de Servicios y Capacidades
- Detrás de Ghostbuster El nuevo método de la Universidad de Berkeley para detectar contenido generado por IA