Perplejidad revela dos nuevos modelos de LLM en línea ‘pplx-7b-online’ y ‘pplx-70b-online

Perplejidad desvela dos nuevos modelos en línea de LLM 'pplx-7b-online' y 'pplx-70b-online

Perplexity, una innovadora startup de IA, ha introducido una solución para transformar los sistemas de recuperación de información. Este lanzamiento presenta dos nuevos modelos de lenguaje grandes (LLMs), pplx-7b-online y pplx-70b-online, que marcan la incursión pionera en LLMs en línea accesibles al público a través de una API. A diferencia de los LLMs offline tradicionales como Claude 2, estos modelos aprovechan datos en vivo de Internet, lo que permite respuestas precisas en tiempo real a consultas, superando la dificultad de obtener información actualizada como los últimos resultados deportivos.

El factor distintivo de los modelos en línea pplx de Perplexity en el panorama de la IA radica en su oferta única a través de una API. Si bien los LLMs existentes como Google Bard, ChatGPT y BingChat han avanzado en la navegación en línea, ninguno ha extendido esta funcionalidad a través de una API. La compañía atribuye esta capacidad a su infraestructura de búsqueda interna, que abarca un amplio repositorio de sitios web de alta calidad, priorizando fuentes autorizadas y empleando mecanismos de clasificación avanzados para mostrar información relevante y creíble en tiempo real. Estos “fragmentos” en tiempo real se integran en los LLMs para facilitar respuestas actualizadas. Ambos modelos se construyen sobre los modelos base mistral-7b y llama2-70b.

Es notable que Perplexity AI no solo ha integrado estos modelos con tecnología de vanguardia, sino que también los ha ajustado minuciosamente para obtener un rendimiento óptimo. Este proceso meticuloso implica utilizar conjuntos de entrenamiento diversos y de alto nivel, seleccionados por contratistas internos de datos. Esta mejora continua garantiza que los modelos destaquen en términos de utilidad, veracidad y actualización.

Para validar la eficacia de estos modelos, Perplexity AI realizó evaluaciones exhaustivas utilizando diferentes estímulos, evaluando factores como la utilidad, veracidad y actualidad. Estas evaluaciones implicaron comparaciones con modelos líderes como gpt-3.5 de OpenAI y llama2-70b de Meta AI, centrándose en el rendimiento holístico y criterios específicos.

Los resultados de estas evaluaciones son impresionantes. Tanto pplx-7b-online como pplx-70b-online superaron constantemente a sus contrapartes en cuanto a frescura, veracidad y preferencia general. Por ejemplo, en el criterio de frescura, pplx-7b y pplx-70b alcanzaron puntajes Elo estimados de 1100.6 y 1099.6, superando a gpt-3.5 y llama2-70b.

A partir de ahora, los desarrolladores pueden acceder a la API de Perplexity para crear aplicaciones aprovechando las capacidades únicas de estos modelos. La estructura de precios se basa en el uso, con planes especiales disponibles para los primeros probadores.

Este lanzamiento pionero de Perplexity introduce un cambio de paradigma en los sistemas de recuperación de información impulsados por IA. La introducción de los modelos pplx-7b-online y pplx-70b-online a través de una API accesible aborda las limitaciones de los LLMs offline existentes y muestra un rendimiento superior al entregar información precisa, actualizada y veraz.

  • Comienza con pplx-api aquí.
  • Prueba los modelos en línea de forma gratuita con Perplexity Labs.

El artículo Perplexity presenta dos nuevos modelos LLM en línea: ‘pplx-7b-online’ y ‘pplx-70b-online’ apareció primero en MarkTechPost.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Aprendizaje Automático

Tienes que ajustar esas dimensiones DreamEditor es un modelo de IA que edita escenas en 3D utilizando indicaciones de texto.

El dominio de visión por computadora 3D se ha inundado de NeRF en los últimos años. Surgieron como una técnica innova...

Inteligencia Artificial

Reduciendo la huella de carbono en el entrenamiento de IA mediante la optimización

Investigadores de la Universidad de Michigan han creado un marco de optimización de código abierto llamado Zeus que a...

Ciencia de Datos

Mejorando la inferencia de PyTorch en CPU desde la cuantificación posterior al entrenamiento hasta el multihilo.

Acelere el tiempo de inferencia en CPU con la selección de modelos, la cuantización posterior al entrenamiento con ON...

Inteligencia Artificial

Utilizando Psicología para Fortalecer la Ciberseguridad

Entrando en la mente de los atacantes para proteger la empresa.