Conoce a Meditron una suite de modelos de lenguaje médicos de código abierto basados en LLaMA-2 (Large Language Models para Medicina)
Descubre a Meditron una suite de modelos de lenguaje médicos de código abierto basados en LLaMA-2 (Large Language Models para Medicina)
Una de las aplicaciones más emocionantes de los Modelos de Lenguaje Amplio (LLMs, por sus siglas en inglés) es en medicina, con algunos de sus casos de uso incluyendo la investigación médica, planes de salud personalizados, diagnóstico clínico y muchos más. Sin embargo, dado lo crítico que es el campo de seguridad, es necesario probar estos modelos en varios casos de uso para garantizar que sean seguros de usar. Además, estos modelos deben ser públicos para permitir su escrutinio.
Un grupo de investigadores ha lanzado un conjunto de LLMs llamado MediTron que están adaptados al dominio y se basan en LLaMA-2. El modelo tiene dos variantes, una con 7 mil millones de parámetros y otra con 70 mil millones. MediTron es un modelo fundamental que se puede utilizar para tareas específicas posteriores mediante RLHF o ajuste de instrucciones, y algunos de sus casos de uso incluyen respuestas a preguntas de exámenes médicos, consultas generales de salud, consultas de información sobre enfermedades y apoyo a diagnósticos diferenciales.
El conjunto de datos de entrenamiento de MediTron es bastante completo y consta de pautas de práctica clínica, documentos médicos junto con sus resúmenes y datos de preentrenamiento en dominios generales. La biblioteca de entrenamiento distribuido Megatron-LLM se ha utilizado para optimizar la eficiencia del entrenamiento, y el esquema de paralelización utiliza la paralelismo de datos, de canalización y de tensores para acelerar el proceso.
- 15 Bases de Datos Vectoriales que Debes Probar en 2024
- Este documento de investigación de IA de la Universidad Northeastern y el MIT desarrolla controles deslizantes de conceptos interpretativos para un mayor control en la generación de imágenes en modelos de difusión.
- Google DeepMind presenta GNoME una nueva herramienta de aprendizaje profundo que aumenta drásticamente la velocidad y eficiencia de los descubrimientos al predecir la estabilidad de nuevos materiales.
Los investigadores realizaron una evaluación inicial de la veracidad de los modelos en comparación con los modelos de referencia. Para ello, utilizaron el conjunto de datos TruthfulQA como referencia y realizaron evaluaciones de solo una vez para el modelo de 7 mil millones y evaluaciones de cero veces para el modelo de 70 mil millones. Ambos modelos pudieron rendir mejor que los demás, con una puntuación promedio de 71,2 para MediTron-70B en comparación con 54,8 para LLaMA-2-70B, y 28,3 para MediTron-7B en comparación con 12,6 para LLaMA-2-7B.
Para la evaluación posterior, los investigadores utilizaron varias pruebas de referencia como MedQA, PubMedQA, etc., y calcularon la precisión de las tareas de preguntas y respuestas de opción múltiple. Para comparar los resultados, también se utilizaron diferentes LLMs, como LLaMA-7B, LLaMA-70B, Mistral-7B-instruct, etc. Los resultados muestran que tanto MediTron-7B como MediTron-70B superaron a sus competidores en casi todos los conjuntos de datos, demostrando sus capacidades superiores.
![](https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/GACqqY3bYAAUDLV-1-1024x456.jpeg)
Aunque el modelo ha sido entrenado con una gran cantidad de datos médicos y tiene un buen rendimiento en múltiples pruebas de referencia, los usuarios deben ser conscientes de sus limitaciones y no deben implementarlo en aplicaciones médicas sin realizar pruebas adicionales. Los investigadores apenas han comenzado a comprender las capacidades y limitaciones del modelo y, por lo tanto, han advertido contra su uso en sistemas médicos en este momento.
En conclusión, MediTron es un conjunto de LLMs específicos del dominio que han sido entrenados en una amplia variedad de conjuntos de datos médicos. Tiene dos variantes, una con 7 mil millones de parámetros y otra con 70 mil millones, y ambos pudieron rendir mejor que los otros modelos considerados para la evaluación. Los investigadores también han mencionado que el modelo no debe implementarse sin entrenamiento adicional, dado lo crítico que es el campo. En general, el modelo es un avance emocionante en medicina y tiene el potencial de resolver una variedad de tareas médicas y ayudar a los profesionales médicos.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Las mejores 15 bases de datos vectoriales para la ciencia de datos en 2024 una guía completa
- Investigadores de Microsoft y Georgia Tech presentan TongueTap reconocimiento multimodal de gestos de lengua con dispositivos usados en la cabeza.
- Descubre RAGs una aplicación de Streamlit que te permite crear una tubería RAG a partir de una fuente de datos utilizando lenguaje natural.
- ¿Podemos mapear escenas a gran escala en tiempo real sin aceleración de GPU? Este artículo de IA presenta ‘ImMesh’ para la localización y mapeo avanzado basado en LiDAR.
- 20 Mejores Comandos de ChatGPT para Escribir en un Blog
- Manteniendo los costos de infraestructura de IA bajos con gobernanza de API
- Observabilidad de Datos Confiabilidad en la Era de la IA