¿Cómo deberíamos ver los datos clínicos sesgados en el aprendizaje automático médico? Un llamado a una perspectiva arqueológica
Perspectiva arqueológica sobre datos clínicos sesgados en aprendizaje automático médico
Investigadores del MIT, la Universidad Johns Hopkins y el Instituto Alan Turing argumentan que lidiar con datos médicos sesgados en los sistemas de IA no es tan simple como sugiere el dicho “basura entra, basura sale”. Los modelos de IA sesgados se han vuelto populares en la industria de la salud. Por lo general, cuando los datos están sesgados, las personas intentan solucionarlo recopilando más datos de grupos subrepresentados o creando datos sintéticos para equilibrar las cosas. Sin embargo, los investigadores creen que este enfoque técnico necesita una visión más amplia. Afirman que también debemos considerar factores sociales e históricos. Al hacer esto, podemos abordar el sesgo en la salud pública de manera más efectiva. Los autores se dieron cuenta de que a menudo tratamos los problemas de datos como molestias técnicas. Compararon los datos con un espejo agrietado que refleja nuestras acciones pasadas, que tal vez no muestre toda la verdad. Pero una vez que comprendemos nuestra historia a través de los datos, podemos trabajar para abordar y mejorar nuestras prácticas en el futuro.
En el artículo titulado “Considerando los datos sesgados como artefactos informativos en la asistencia sanitaria asistida por IA”, tres investigadores argumentan que deberíamos ver los datos médicos sesgados como artefactos valiosos en arqueología o antropología. Estos artefactos revelan prácticas, creencias y valores culturales que han llevado a desigualdades en la atención médica. Por ejemplo, un algoritmo ampliamente utilizado asumió erróneamente que los pacientes negros más enfermos necesitaban la misma atención que los pacientes blancos más saludables porque no tenía en cuenta el acceso desigual a la atención médica. Los investigadores sugieren que, en lugar de simplemente corregir los datos sesgados o desecharlos, deberíamos adoptar un enfoque de “artefactos”. Esto significa reconocer cómo los factores sociales e históricos influyen en la recopilación de datos y el desarrollo clínico de la IA. Los científicos de la computación pueden no comprender completamente los aspectos sociales e históricos detrás de los datos que utilizan, por lo que la colaboración es esencial para que los modelos de IA funcionen bien para todos los grupos en el campo de la salud.
Los investigadores reconocen un desafío en el enfoque basado en artefactos que determina si los datos han sido corregidos racialmente, lo que significa que se basan en la suposición de que los cuerpos de hombres blancos son el estándar de comparación. Mencionan un ejemplo en el que se corrigió una ecuación de medición de la función renal, asumiendo que las personas negras tienen más masa muscular. Los investigadores deben estar preparados para investigar tales correcciones durante su investigación. En otro artículo, los investigadores descubrieron que incluir la raza autoreportada en los modelos de aprendizaje automático puede empeorar las cosas para los grupos minoritarios. La raza autoreportada es un constructo social y no siempre puede ser útil. El enfoque debe depender de la evidencia disponible.
- Conoce vLLM una biblioteca de aprendizaje automático de código abierto para una inferencia y servicio LLM rápidos
- Investigadores de Stanford presentan Spellburst un entorno de codificación creativa impulsado por un modelo de lenguaje grande (LLM).
- IA para desarrolladores web Introducción y configuración del proyecto
No debemos conservar conjuntos de datos sesgados tal como están, pero pueden ser valiosos cuando se tratan como artefactos. Los investigadores de los Institutos Nacionales de Salud (NIH) hacen hincapié en la recopilación ética de datos. Comprender los sesgos en diferentes contextos puede ayudar a crear una IA mejor para poblaciones específicas. Este enfoque también puede llevar a nuevas políticas para eliminar el sesgo. Los investigadores siguen trabajando en abordar los problemas de atención médica actuales en lugar de temer problemas hipotéticos de IA en el futuro.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Regex para los Científicos de Datos Modernos
- El Dilema de AutoML
- La nueva solución de código abierto de Vianai aborda el problema de la alucinación en la IA
- Técnicas de caza de amenazas de próxima generación con integración SIEM-SOAR
- Más allá de GPT-4 ¿Qué hay de nuevo?
- Conoce a BLIVA un modelo de lenguaje multimodal grande para manejar mejor preguntas visuales ricas en texto
- Grita al Diablo ‘Devil May Cry 5’ de Capcom se une a GeForce NOW