Conciliando la Paradoja de la IA Generativa Caminos Divergentes de la Inteligencia Humana y Máquina en la Generación y Comprensión
Abrazando la Paradoja de la IA Generativa Los Divergentes Senderos de la Inteligencia Humana y Artificial en la Generación y Comprensión
De ChatGPT a GPT4 a DALL-E 2/3 a Midjourney, la última ola de IA generativa ha captado una atención sin precedentes en todo el mundo. Esta fascinación se ve atenuada por una seria preocupación acerca de los riesgos asociados con una “inteligencia” que parece estar más allá de la capacidad humana. Los modelos generativos actuales pueden producir resultados que desafían a especialistas con años de experiencia y conocimiento en los ámbitos del lenguaje y la visualización, y esto respalda de manera convincente afirmaciones de que las máquinas han superado la inteligencia humana. Al mismo tiempo, al examinar las salidas del modelo, se revelan errores fundamentales de comprensión que sorprenden incluso a personas inexpertas.
Esto plantea lo que parece ser una paradoja: ¿cómo pueden explicar estos modelos sus aparentes poderes superhumanos mientras mantienen un conjunto básico de errores que la mayoría de las personas podrían corregir? Sugieren que este conflicto se debe a las diferencias entre cómo está configurada la inteligencia humana y cómo están configuradas las capacidades en los modelos generativos actuales. En particular, los investigadores de la Universidad de Washington y del Instituto Allen de Inteligencia Artificial plantean e investigan en este trabajo la hipótesis de la Paradoja de la IA Generativa, que afirma que los modelos generativos pueden ser más creativos que los intérpretes de salida similar a un experto porque han sido entrenados para producir salidas similares a las de un experto de manera directa.
En comparación, las personas casi siempre requieren una comprensión fundamental antes de brindar resultados a nivel de expertos. Examinan las capacidades de generación y comprensión en modelos generativos que abarcan modalidades verbales y visuales en estudios controlados para evaluar esta idea. Se utilizan dos perspectivas para construir la “comprensión” en relación con la generación: 1) dada una tarea de generación, ¿qué tan bien pueden los modelos elegir respuestas apropiadas en una versión discriminatoria de la misma tarea? y 2) ¿Hasta qué punto pueden los modelos responder a preguntas sobre la naturaleza y adecuación de una respuesta generada, siempre que sea correcta? Como resultado, existen dos configuraciones experimentales distintas: interrogativa y selectiva.
- Reduciendo y expandiendo Dominando la IA generativa con la cuantificación de modelos
- Clústeres de precisión simplificados Guía de kscorer para la selección automática óptima de clústeres K-means
- Google AI presenta un novedoso algoritmo de agrupación que combina de manera efectiva los beneficios de escalabilidad de los modelos de incrustación con la calidad de los modelos de atención cruzada.
A pesar de que sus hallazgos varían entre tareas y modalidades, surgen ciertos patrones distintos. Cuando se trata de evaluación selectiva, los modelos frecuentemente desempeñan a la par o incluso mejor que las personas en contextos de tareas generativas. Sin embargo, no son tan buenos como los humanos en situaciones discriminatorias. La investigación subsecuente revela que el rendimiento de discriminación humano es más resistente a entradas hostiles y que está más estrechamente correlacionado con el rendimiento de generación que con GPT4. Además, la brecha de discriminación modelo-humano aumenta a medida que aumenta la complejidad de la tarea. De manera similar, los modelos pueden proporcionar salidas de alta calidad para una variedad de tareas en la evaluación interrogativa, pero frecuentemente cometen errores al responder preguntas sobre las mismas generaciones, y su rendimiento de comprensión necesita ser mejorado en la comprensión humana.
Los autores examinan muchas posibles explicaciones para las diferencias en las configuraciones de capacidad entre los modelos generativos y los humanos, como los objetivos del entrenamiento del modelo y el tipo y cantidad de entrada. Sus conclusiones tienen varias implicaciones adicionales. En primer lugar, sugiere que las concepciones actuales de la inteligencia, que se basan en la experiencia humana, podrían no traducirse a la inteligencia artificial. Si bien las capacidades de IA se asemejan o incluso superan la inteligencia humana en muchos aspectos, sus características reales pueden desviarse significativamente de los patrones anticipados en los procesos de pensamiento humano. Por otro lado, sus resultados advierten contra sacar conclusiones sobre la inteligencia y cognición humana a partir de modelos generativos, ya que sus salidas similares a las de un experto humano podrían ocultar mecanismos no similares a los humanos. En general, más que ver los modelos como comparables a la inteligencia humana, el enigma de la IA generativa sugiere verlos como un contraste fascinante.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- OpenAI anuncia su modelo más reciente GPT-4 Turbo
- Los investigadores de Microsoft revelan ‘EmotionPrompt’ mejorando la inteligencia emocional de la IA en múltiples modelos de lenguaje
- Hacia la IA generativa para la arquitectura del modelo
- Descubriendo el impacto de la IA generativa en la narración de datos y el análisis
- Cómo configurar un sistema NL2SQL con Azure OpenAI Studio
- Detrás de la Revolución de la IA Paige Bailey habla sobre PaLM 2 de Google y más
- Promocionar canalizaciones en una configuración multiambiente utilizando Amazon SageMaker Model Registry, HashiCorp Terraform, GitHub y Jenkins CI/CD