Construyendo un panel interactivo de ML en Panel
Construyendo panel interactivo de ML en Panel
Por Andrew Huang, Sophia Yang, Philipp Rudiger
![Demo de la aplicación de clasificación de imágenes.](https://miro.medium.com/v2/resize:fit:640/1*YdrF_459CVGbDwPtsJnZfA.gif)
HoloViz Panel es una versátil biblioteca de Python que permite a los desarrolladores y científicos de datos crear visualizaciones interactivas con facilidad. Ya sea que esté trabajando en proyectos de aprendizaje automático, desarrollando aplicaciones web o diseñando paneles de datos, Panel proporciona un conjunto poderoso de herramientas y características para mejorar sus capacidades de exploración y presentación de datos. En esta publicación del blog, profundizaremos en las emocionantes características de HoloViz Panel, exploraremos cómo puede revolucionar sus flujos de trabajo de visualización de datos y demostraremos cómo puede crear una aplicación como esta con aproximadamente 100 líneas de código.
Pruebe la aplicación y consulte el código:
- Hugging Face Space
- Aplicación en Anaconda
- Aplicación en Hugging Face
- Código en el cuaderno de Anaconda
- Código en Hugging Face
Aprovechando el poder de ML/AI
ML/AI se ha convertido en una parte integral del análisis de datos y los procesos de toma de decisiones. Con Panel, puede integrar sin problemas modelos y resultados de ML en sus visualizaciones. En esta publicación del blog, exploraremos cómo realizar una tarea de clasificación de imágenes utilizando el modelo OpenAI CLIP.
- Cómo construí una canalización de datos en cascada basada en AWS
- 4-bit Cuantización con GPTQ
- Formas fascinantes en las que la IA está ayudando a las personas a dominar el alemán y otros idiomas
CLIP está preentrenado en un gran conjunto de datos de pares de imágenes y texto, lo que le permite entender imágenes y descripciones de texto correspondientes y trabajar para varias tareas posteriores, como la clasificación de imágenes.
Hay dos funciones relacionadas con ML que utilizamos para realizar la tarea de clasificación de imágenes. La primera función load_processor_model
nos permite cargar un modelo CLIP preentrenado de Hugging Face. La segunda función get_similarity_score
calcula el grado de similitud entre la imagen y una lista proporcionada de etiquetas de clase.
@pn.cachedef load_processor_model( processor_name: str, model_name: str) -> Tuple[CLIPProcessor, CLIPModel]: processor = CLIPProcessor.from_pretrained(processor_name) model = CLIPModel.from_pretrained(model_name) return processor, modeldef get_similarity_scores(class_items: List[str], image: Image) -> List[float]: processor, model = load_processor_model( "openai/clip-vit-base-patch32", "openai/clip-vit-base-patch32" ) inputs = processor(…
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Transforma tu proyecto de Ciencia de Datos Descubre los beneficios de almacenar variables en un archivo YAML
- Desbloqueando el potencial del texto Un vistazo más cercano a los métodos de limpieza de texto previo a la incrustación
- Conoce a los razonadores RAP y LLM Dos marcos basados en conceptos similares para el razonamiento avanzado con LLMs
- Keras 3.0 Todo lo que necesitas saber
- La IA y los implantes cerebrales restauran el movimiento y la sensación para un hombre paralizado
- Aceptando la IA para el Desarrollo de Software Estrategias de Solución e Implementación
- Top 40 Herramientas de IA Generativa 2023