Conoce a Nous-Hermes-Llama2-70b Un modelo de lenguaje de última generación ajustado finamente en más de 300,000 instrucciones.
Conoce a Nous-Hermes-Llama2-70b, un modelo de lenguaje ajustado en más de 300,000 instrucciones.
El Transformer de Hugging Face es una biblioteca inmensamente popular en Python, que proporciona modelos pre-entrenados que son extraordinariamente útiles para una variedad de tareas de Procesamiento del Lenguaje Natural. Anteriormente solo era compatible con PyTorch, pero ahora también es compatible con Tensorflow. Nous-Hermes-Llama2-70b es el modelo de lenguaje NLP que utiliza más de cientos de miles de instrucciones. Este modelo utiliza el mismo conjunto de datos que el antiguo modelo Hermes para asegurarse de que no haya cambios bruscos graves durante el entrenamiento del modelo y el proceso sea aún más fluido. El modelo todavía tiene algunas deficiencias, como una tasa de alucinación más baja y la ausencia de censura de OpenAI.
El entrenamiento del modelo se realizó en conjuntos de datos más grandes, que eran increíblemente altos en términos de datos procesados y el estilo que tenían. Los datos se encontraron en diferentes fuentes y se fusionaron en un solo conjunto de datos, lo que resultó en una diversidad de conocimientos en el conjunto de datos procesados. El conjunto de datos recopiló información de diferentes fuentes como Teknium, Karan4D, Emozilla, Huemin Art y Pygmalion AI. El modelo se entrena utilizando el modelo Alpaca. El equipo de investigación llevó a cabo una evaluación humana sobre las entradas del conjunto de datos de evaluación de autoinstrucción para evaluar Alpaca. Los investigadores recopilaron este conjunto de evaluación y cubrieron una lista diversa de instrucciones orientadas al usuario que abarcaban casi todo.
Los investigadores también afirmaron que los Ingenieros de Prompts también se beneficiarían de este modelo que se ha ejecutado. Los investigadores creen que liberar los activos mencionados permitirá a la comunidad académica realizar estudios científicos controlados sobre modelos de lenguaje de seguimiento de instrucciones y, en última instancia, resultará en nuevas técnicas para abordar las deficiencias existentes en este modelo. Desplegar una demostración interactiva para Alpaca también plantea riesgos potenciales, como la difusión más amplia de contenido perjudicial y la reducción de las posibilidades de spam. La detección de spam en NLP también juega un papel importante en este modelo. Los investigadores entienden que estas medidas de mitigación se pueden lograr una vez que se publiquen los pesos del modelo o si los usuarios entrenan su propio modelo de seguimiento de instrucciones.
- Cadenas de Markov de Tiempo Discreto – Identificando Trayectorias Ganadoras de Clientes en una Campaña de Devolución de Dinero
- Seis recursos útiles para ingenieros
- 5 Razones para considerar un Bootcamp de Ciencia de Datos antes de la educación superior
Los planes futuros de este proyecto también incluyen iterar datos de alta calidad y aplicar técnicas para eliminar los datos de baja calidad en el futuro. Los investigadores también necesitan evaluar Alpaca de manera más rigurosa. Además, comenzarán con el modelo HELM, que con suerte capturará más información generativa. Los investigadores también les gustaría estudiar los riesgos de Alpaca y tratarán de mejorar aún más su seguridad.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Arquitectura de Datos y Teorema CAP ¿Dónde chocan?
- A pesar de los temores de trampas, las escuelas revocan las prohibiciones de ChatGPT
- Top Herramientas de IA Low/No Code (Septiembre 2023)
- Integrando ChatGPT con ReactJS para interfaces de conversación más inteligentes
- ¿Ahogado en datos? Un lago de datos puede ser su salvavidas
- La IA puede detectar los primeros signos de un tsunami a partir de las ondas de choque atmosféricas
- Crea un panel de control utilizando Python y Dash