Conciliando la Paradoja de la IA Generativa Caminos Divergentes de la Inteligencia Humana y Máquina en la Generación y Comprensión

Abrazando la Paradoja de la IA Generativa Los Divergentes Senderos de la Inteligencia Humana y Artificial en la Generación y Comprensión

De ChatGPT a GPT4 a DALL-E 2/3 a Midjourney, la última ola de IA generativa ha captado una atención sin precedentes en todo el mundo. Esta fascinación se ve atenuada por una seria preocupación acerca de los riesgos asociados con una “inteligencia” que parece estar más allá de la capacidad humana. Los modelos generativos actuales pueden producir resultados que desafían a especialistas con años de experiencia y conocimiento en los ámbitos del lenguaje y la visualización, y esto respalda de manera convincente afirmaciones de que las máquinas han superado la inteligencia humana. Al mismo tiempo, al examinar las salidas del modelo, se revelan errores fundamentales de comprensión que sorprenden incluso a personas inexpertas.

Esto plantea lo que parece ser una paradoja: ¿cómo pueden explicar estos modelos sus aparentes poderes superhumanos mientras mantienen un conjunto básico de errores que la mayoría de las personas podrían corregir? Sugieren que este conflicto se debe a las diferencias entre cómo está configurada la inteligencia humana y cómo están configuradas las capacidades en los modelos generativos actuales. En particular, los investigadores de la Universidad de Washington y del Instituto Allen de Inteligencia Artificial plantean e investigan en este trabajo la hipótesis de la Paradoja de la IA Generativa, que afirma que los modelos generativos pueden ser más creativos que los intérpretes de salida similar a un experto porque han sido entrenados para producir salidas similares a las de un experto de manera directa.

En comparación, las personas casi siempre requieren una comprensión fundamental antes de brindar resultados a nivel de expertos. Examinan las capacidades de generación y comprensión en modelos generativos que abarcan modalidades verbales y visuales en estudios controlados para evaluar esta idea. Se utilizan dos perspectivas para construir la “comprensión” en relación con la generación: 1) dada una tarea de generación, ¿qué tan bien pueden los modelos elegir respuestas apropiadas en una versión discriminatoria de la misma tarea? y 2) ¿Hasta qué punto pueden los modelos responder a preguntas sobre la naturaleza y adecuación de una respuesta generada, siempre que sea correcta? Como resultado, existen dos configuraciones experimentales distintas: interrogativa y selectiva.

A pesar de que sus hallazgos varían entre tareas y modalidades, surgen ciertos patrones distintos. Cuando se trata de evaluación selectiva, los modelos frecuentemente desempeñan a la par o incluso mejor que las personas en contextos de tareas generativas. Sin embargo, no son tan buenos como los humanos en situaciones discriminatorias. La investigación subsecuente revela que el rendimiento de discriminación humano es más resistente a entradas hostiles y que está más estrechamente correlacionado con el rendimiento de generación que con GPT4. Además, la brecha de discriminación modelo-humano aumenta a medida que aumenta la complejidad de la tarea. De manera similar, los modelos pueden proporcionar salidas de alta calidad para una variedad de tareas en la evaluación interrogativa, pero frecuentemente cometen errores al responder preguntas sobre las mismas generaciones, y su rendimiento de comprensión necesita ser mejorado en la comprensión humana.

Los autores examinan muchas posibles explicaciones para las diferencias en las configuraciones de capacidad entre los modelos generativos y los humanos, como los objetivos del entrenamiento del modelo y el tipo y cantidad de entrada. Sus conclusiones tienen varias implicaciones adicionales. En primer lugar, sugiere que las concepciones actuales de la inteligencia, que se basan en la experiencia humana, podrían no traducirse a la inteligencia artificial. Si bien las capacidades de IA se asemejan o incluso superan la inteligencia humana en muchos aspectos, sus características reales pueden desviarse significativamente de los patrones anticipados en los procesos de pensamiento humano. Por otro lado, sus resultados advierten contra sacar conclusiones sobre la inteligencia y cognición humana a partir de modelos generativos, ya que sus salidas similares a las de un experto humano podrían ocultar mecanismos no similares a los humanos. En general, más que ver los modelos como comparables a la inteligencia humana, el enigma de la IA generativa sugiere verlos como un contraste fascinante.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Este boletín de inteligencia artificial es todo lo que necesitas #56

Esta semana vimos varios nuevos competidores en el mundo de los LLMs, tanto en modelos de código abierto como cerrado...

Ciencia de Datos

Los modelos de lenguaje grandes tienen sesgos. ¿Puede la lógica ayudar a salvarlos?

Investigadores del MIT entrenaron modelos de lenguaje conscientes de la lógica para reducir estereotipos dañinos como...

Inteligencia Artificial

GPT-Engineer Tu nuevo asistente de programación de IA

GPT-Engineer es un constructor de aplicaciones impulsado por IA que genera bases de código a partir de descripciones ...

Inteligencia Artificial

La incorporación del smartphone podría aumentar la equidad racial en la detección neurológica

Un nuevo accesorio para teléfonos inteligentes podría ser utilizado para realizar pruebas neurológicas de bajo costo,...

Inteligencia Artificial

Un cambio de paradigma en el desarrollo de software los agentes de inteligencia artificial AI de GPTConsole abren nuevos horizontes

En una industria donde el cambio es la única constante, GPTConsole ha presentado un trío de agentes de IA que destaca...