Herramientas de IA Médica pueden cometer errores peligrosos. ¿Puede el Gobierno ayudar a prevenirlos?
Las herramientas de IA médica pueden cometer errores peligrosos. ¿Puede el Gobierno ayudar a prevenirlos?
![El gobierno está luchando por garantizar que las herramientas de inteligencia artificial para médicos no causen daño. Los médicos pueden prescindir de tomar notas durante la visita de un paciente porque un sistema de inteligencia artificial escucharía y capturaría la información. ¶ Crédito: Doug Barrett / The Wall Street Journal](https://ai.miximages.com/cacm.acm.org/system/assets/0004/6788/121223_Doug_Barrett_for_The_Wall_Street_Journal_DR_AI.large.jpg?1702399873&1702399873)
La administración de Biden ha propuesto un sistema de etiquetado para aplicaciones de inteligencia artificial (IA) en el ámbito de la salud que tiene como objetivo garantizar su seguridad.
La “etiqueta de nutrición” detallaría cómo fueron entrenadas y probadas las aplicaciones, cómo funcionan, sus usos previstos y medidas de su “validez e imparcialidad”.
Las empresas de salud y tecnología se oponen a la regla debido a preocupaciones de que dificultaría la competencia y comprometería información propietaria.
El proyecto presentado por la Oficina del Coordinador Nacional de Tecnología de la Información en Salud (ONC) del Departamento de Salud y Servicios Humanos de los Estados Unidos podría ser finalizado antes de que termine el año.
- Nueva York planea invertir 1.000 millones de dólares para expandir la investigación de chips
- Control deslizante de conceptos Control preciso en modelos de difusión con adaptadores LoRA
- 3 formas en que la IA generativa está revolucionando la gestión de la fuerza laboral
Los partidarios de las etiquetas dijeron que permitirían a los proveedores evitar herramientas de IA que tengan un bajo rendimiento o no sean adecuadas para un caso particular. Del artículo de The Wall Street Journal Ver Artículo Completo – Puede requerir suscripción paga
Resúmenes derechos de autor © 2023 SmithBucklin, Washington, D.C., EE. UU.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Atrapa el Hype Eventos de IA en Bay Area
- Python a Rust Desglosando 3 grandes obstáculos
- Investigadores de UC Berkeley presentan LLMCompiler Un compilador de LLM que optimiza el rendimiento de la llamada de funciones paralelas de LLMs
- Controversia en torno a Grok utiliza el código de OpenAI para entrenamiento
- Edge Computing Revolucionando el Procesamiento de Datos y la Conectividad
- Evitando la automatización para mantener tu empleo
- ¡No cometas el mismo error que cometí en un proyecto de aprendizaje automático!