OpenAI anuncia su modelo más reciente GPT-4 Turbo
OpenAI presenta su último modelo GPT-4 Turbo
Esta semana, OpenAI anunció recientemente múltiples características nuevas para ChatGPT a través de un blog en su sitio web oficial. También lanzaron nueva información sobre otras herramientas impulsadas por IA durante su reciente conferencia para desarrolladores.
Parece que 2023 será un año de lanzamientos de GPT, ya que en marzo OpenAI lanzó GPT-4 y se espera que lance GPT Turbo más adelante este año. Algunas de las nuevas características de GPT-4 Turbo serán una adición bienvenida para los usuarios, particularmente su nuevo punto de corte de conocimiento.
Según OpenAI, los nuevos datos de corte se moverán de septiembre de 2021 a abril de 2023. Esto dará a los usuarios un contexto actualizado más amplio para las indicaciones. Pero eso no es todo. El CEO Sam Altman también expresó el deseo de llevar sus modelos GPT al punto en el que el punto de corte de información actual ya no sea un problema.
- Los investigadores de Microsoft revelan ‘EmotionPrompt’ mejorando la inteligencia emocional de la IA en múltiples modelos de lenguaje
- Hacia la IA generativa para la arquitectura del modelo
- Descubriendo el impacto de la IA generativa en la narración de datos y el análisis
Sin embargo, todavía se desconoce cómo sería posible. Este es uno de los principales dolores de cabeza de OpenAI, ya que la empresa enfrenta demandas y amenazas de demandas de múltiples grupos debido a cómo supuestamente se utilizó información sin el consentimiento del creador para entrenar modelos.
Para los desarrolladores que están interesados en utilizar la API de ChatGPT, Altman insinuó que los precios disminuirán. En la misma publicación de blog, se proporcionaron dos ejemplos de esto. Primero, con el precio de DALL-E 3, que comenzó en $0.04 por imagen generada, mientras que también se mencionó que GPT-4 Turbo con visión tendría un costo de $0.00765 por imagen.
Ahora, para aquellos que se están convirtiendo en expertos ingenieros de indicaciones, GPT-4 Turbo admitirá hasta 128,000 tokens de contexto. Permitiendo a los usuarios crear indicaciones extremadamente largas y detalladas. Como vimos en marzo pasado, cuando se permite a los usuarios construir a partir de indicaciones de mayor tamaño, lo que se genera tiende a ser increíble.
Otra mejora estará en cómo el modelo podrá seguir instrucciones ingresadas por el usuario. Al mantenerse consistente con lo que se genera, esta característica probablemente beneficiaría a los desarrolladores que utilizan el chatbot para ayudarles a generar código.
Finalmente, la interfaz de usuario de GPT será más inteligente para comprender su solicitud y elegir la herramienta correcta. Entonces, en lugar del familiar menú desplegable donde los usuarios tenían que elegir las herramientas que querían usar, la IA ahora elegiría las herramientas según su entrada.
Entonces, si solicita una imagen, DALL-E 3 responderá a su indicación y generará la imagen adecuada. Estas son algunas características interesantes que provienen de OpenAI y cómo responderán sus competidores, especialmente Google, será clave para dar forma al actual concurso de IA. CNET proporcionó un excelente video de primeras impresiones del anuncio de OpenAI a continuación:
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Cómo configurar un sistema NL2SQL con Azure OpenAI Studio
- Detrás de la Revolución de la IA Paige Bailey habla sobre PaLM 2 de Google y más
- Promocionar canalizaciones en una configuración multiambiente utilizando Amazon SageMaker Model Registry, HashiCorp Terraform, GitHub y Jenkins CI/CD
- SDXL en 4 pasos con Latent Consistency LoRAs
- Personalizando compañeros de codificación para organizaciones
- Auriculares para monitorear el cerebro y el cuerpo
- Utilizando el lenguaje para dar a los robots una mejor comprensión del mundo abierto