"Reconocer, monitorear, auditar": tomar medidas para evitar la IA de salud sesgada

[ad_1]

ORLANDO, Florida - Como La inteligencia artificial se está moviendo a más áreas en el campo de la salud, las organizaciones deben tomar medidas para garantizar que sus algoritmos no creen más sesgos, agregando inequidades significativas en el campo de la salud.

Puede ser una tarea desalentadora. Una forma de comenzar es asegurarse de que las personas de entornos subrepresentados estén en la mesa desde el principio, dijo Carolyn Sun, profesora asistente en Hunter College e investigadora asociada en la Escuela de Enfermería de la Universidad de Columbia.

"Ha habido programas diseñados para ayudar a las mujeres jóvenes de color o las niñas en general a convertirse en codificadoras y formar parte de la fuerza laboral de salud de TI", dijo en un panel en HIMSS22. "Y creo que esa es una forma muy importante de hacerlo, comenzar en algún lugar muy atrás en lugar de solo mirar [it] como, "Bien, aquí está el resultado. Esto no está del todo bien. ¿Cómo lo arreglamos? Tal vez deberíamos dar un paso atrás y profundizar un poco más”.

Pero también es necesario evaluar la efectividad de esos programas de Diversidad, Equidad e Inclusión (IED). Hay muchas iniciativas de DEI en las organizaciones de atención médica, dijo Shannon Harris, profesora asistente en la escuela de negocios de la Virginia Commonwealth University. ¿Pero es solo una casilla que está marcada? ¿Cómo pueden pesarse los trabajadores si ven un problema potencial?

“Si dices, 'Oh, bueno, no hay forma de que entiendan lo que estamos haciendo'. ¿Bueno, por qué no? ¿Por qué no pueden? No deberíamos poder hacer que la gente entienda lo que está pasando en la organización hasta el punto en que podamos entender dónde se deben ajustar las cosas”, dijo Harris.

RELACIONADOS:  Los médicos de atención primaria deben desempeñar un papel en la salud dental de los niños, dicen los expertos

Es necesario considerar factores como la raza, el nivel socioeconómico y el género cuando se utiliza la inteligencia artificial, pero también ser consciente de cómo el algoritmo interpretará esta información.

“Por ejemplo, para mujeres embarazadas que están pensando en tener un parto vaginal después de una cesárea. El algoritmo que ya utilizan los proveedores de atención médica agrega un riesgo adicional a una mujer de color o hispana. La idea es que tienen menos éxito según los datos históricos. tener un parto vaginal exitoso después de una cesárea", dijo Sun. "Pero, de hecho, al hacerlo, ponemos a más mujeres de color y latinas en esta situación en la que reciben una cesárea que una mujer blanca no puede recibir".

investigación de harris se centra en la programación de reuniones. Los pacientes con tasas más altas de ausentismo se colocaron después o en espacios superpoblados para maximizar la eficiencia de la clínica. Como resultado, en su población, los pacientes de color han llegado a esperar más tiempo en la clínica que los pacientes negros.

"No había una solución mágica en la que no pudiéramos decir explícitamente: 'Nuestros datos tienen sesgos raciales, lo que significa que nuestra optimización debe tener en cuenta la raza para poder eliminar ese sesgo'. Y eso puede ser muy difícil, ¿no?”, dijo.

La solución no es tirar sus datos, dijo Jaclyn Sánchez, directora sénior de tecnología de la información de Planned Parenthood en el suroeste y el centro de Florida. Pero debe realizar un seguimiento de los resultados y realizar cambios cuando sea necesario.

"Haga que su IA sea adaptable... Haga que su IA o sus algoritmos respondan las preguntas de la forma en que usted quiere responder las preguntas, no de la forma en que respondemos las preguntas", dijo. "Así que haz que tu IA se adapte al cambio, inteligente. Aprende de ello y es bueno equivocarse. Reconocerlo, monitorearlo, auditarlo.”

RELACIONADOS:  ¿Es más probable que los pacientes con cáncer crean mentiras relacionadas con el COVID?

[ad_2]

Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir