¿Cómo deberíamos ver los datos clínicos sesgados en el aprendizaje automático médico? Un llamado a una perspectiva arqueológica

Perspectiva arqueológica sobre datos clínicos sesgados en aprendizaje automático médico

Investigadores del MIT, la Universidad Johns Hopkins y el Instituto Alan Turing argumentan que lidiar con datos médicos sesgados en los sistemas de IA no es tan simple como sugiere el dicho “basura entra, basura sale”. Los modelos de IA sesgados se han vuelto populares en la industria de la salud. Por lo general, cuando los datos están sesgados, las personas intentan solucionarlo recopilando más datos de grupos subrepresentados o creando datos sintéticos para equilibrar las cosas. Sin embargo, los investigadores creen que este enfoque técnico necesita una visión más amplia. Afirman que también debemos considerar factores sociales e históricos. Al hacer esto, podemos abordar el sesgo en la salud pública de manera más efectiva. Los autores se dieron cuenta de que a menudo tratamos los problemas de datos como molestias técnicas. Compararon los datos con un espejo agrietado que refleja nuestras acciones pasadas, que tal vez no muestre toda la verdad. Pero una vez que comprendemos nuestra historia a través de los datos, podemos trabajar para abordar y mejorar nuestras prácticas en el futuro.

En el artículo titulado “Considerando los datos sesgados como artefactos informativos en la asistencia sanitaria asistida por IA”, tres investigadores argumentan que deberíamos ver los datos médicos sesgados como artefactos valiosos en arqueología o antropología. Estos artefactos revelan prácticas, creencias y valores culturales que han llevado a desigualdades en la atención médica. Por ejemplo, un algoritmo ampliamente utilizado asumió erróneamente que los pacientes negros más enfermos necesitaban la misma atención que los pacientes blancos más saludables porque no tenía en cuenta el acceso desigual a la atención médica. Los investigadores sugieren que, en lugar de simplemente corregir los datos sesgados o desecharlos, deberíamos adoptar un enfoque de “artefactos”. Esto significa reconocer cómo los factores sociales e históricos influyen en la recopilación de datos y el desarrollo clínico de la IA. Los científicos de la computación pueden no comprender completamente los aspectos sociales e históricos detrás de los datos que utilizan, por lo que la colaboración es esencial para que los modelos de IA funcionen bien para todos los grupos en el campo de la salud.

Los investigadores reconocen un desafío en el enfoque basado en artefactos que determina si los datos han sido corregidos racialmente, lo que significa que se basan en la suposición de que los cuerpos de hombres blancos son el estándar de comparación. Mencionan un ejemplo en el que se corrigió una ecuación de medición de la función renal, asumiendo que las personas negras tienen más masa muscular. Los investigadores deben estar preparados para investigar tales correcciones durante su investigación. En otro artículo, los investigadores descubrieron que incluir la raza autoreportada en los modelos de aprendizaje automático puede empeorar las cosas para los grupos minoritarios. La raza autoreportada es un constructo social y no siempre puede ser útil. El enfoque debe depender de la evidencia disponible.

No debemos conservar conjuntos de datos sesgados tal como están, pero pueden ser valiosos cuando se tratan como artefactos. Los investigadores de los Institutos Nacionales de Salud (NIH) hacen hincapié en la recopilación ética de datos. Comprender los sesgos en diferentes contextos puede ayudar a crear una IA mejor para poblaciones específicas. Este enfoque también puede llevar a nuevas políticas para eliminar el sesgo. Los investigadores siguen trabajando en abordar los problemas de atención médica actuales en lugar de temer problemas hipotéticos de IA en el futuro.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Herramientas de IA Médica pueden cometer errores peligrosos. ¿Puede el Gobierno ayudar a prevenirlos?

La administración de Biden ha propuesto un sistema de etiquetado para aplicaciones de inteligencia artificial en el c...

Inteligencia Artificial

Este documento de IA evalúa la capacidad de los LLM para adaptarse a nuevas variantes de tareas existentes

El rendimiento notable de los modelos de lenguaje (ML) sugiere que la predicción de la siguiente palabra a gran escal...

Inteligencia Artificial

Investigadores de CMU proponen TIDEE Un agente incorporado que puede ordenar habitaciones nunca antes vistas sin ninguna instrucción explícita

La operación efectiva de un robot requiere más que simplemente obedecer ciegamente comandos predefinidos. Los robots ...

Inteligencia Artificial

FedML y Theta presentan un superclúster de IA descentralizada impulsando la IA generativa y la recomendación de contenido

En una colaboración innovadora, FedML y Theta Network se han unido para lanzar un supercluster de IA descentralizado ...