El potencial de la inteligencia artificial para generar equidad en la atención de la salud

Casi 1400 personas se unieron a la Conferencia AI for Health Care Equity que exploró las nuevas tecnologías de IA como plataforma para el cambio.

La atención médica se encuentra en un cruce, un punto donde las herramientas de inteligencia artificial se están introduciendo en todas las áreas del espacio. Esta introducción viene con grandes expectativas: la IA tiene el potencial de mejorar en gran medida las tecnologías existentes, perfeccionar los medicamentos personalizados y, con una afluencia de big data, beneficiar a las poblaciones históricamente desatendidas.

Pero para hacer esas cosas, la comunidad de atención médica debe asegurarse de que las herramientas de IA sean confiables y que no terminen perpetuando los sesgos que existen en el sistema actual. Los investigadores de la Clínica MIT Abdul Latif Jameel para el Aprendizaje Automático en Salud (Clínica Jameel), una iniciativa para apoyar la investigación de IA en el cuidado de la salud, piden la creación de una infraestructura sólida que pueda ayudar a los científicos y médicos a cumplir esta misión.

IA justa y equitativa para la atención de la salud

La Clínica Jameel organizó recientemente la Conferencia AI for Health Care Equity para evaluar el trabajo de vanguardia actual en este espacio, incluidas nuevas técnicas de aprendizaje automático que respaldan la equidad, la personalización y la inclusión; identificar áreas clave de impacto en la prestación de atención médica; y discutir las implicaciones normativas y políticas.

Casi 1400 personas asistieron virtualmente a la conferencia para escuchar a los líderes intelectuales de la academia, la industria y el gobierno que trabajan para mejorar la equidad en la atención médica y comprender mejor los desafíos técnicos en este espacio y los caminos a seguir.

Durante el evento, Regina Barzilay, Profesora Distinguida de IA y Salud de la Escuela de Ingeniería y líder de la facultad de IA de la Clínica Jameel, y Bilal Mateen, líder de tecnología clínica en Wellcome Trust, anunciaron la subvención del Fondo Wellcome otorgada a la Clínica Jameel para crear un plataforma comunitaria que apoya herramientas equitativas de IA en el cuidado de la salud.

El objetivo final del proyecto no es resolver una pregunta académica o alcanzar un punto de referencia de investigación específico, sino mejorar la vida de los pacientes en todo el mundo. Los investigadores de la Clínica Jameel insisten en que las herramientas de IA no deben diseñarse pensando en una sola población, sino que deben diseñarse para ser reiterativas e inclusivas, para servir a cualquier comunidad o subpoblación. Para hacer esto, una herramienta de IA determinada debe estudiarse y validarse en muchas poblaciones, generalmente en varias ciudades y países. También en la lista de deseos del proyecto está crear acceso abierto para la comunidad científica en general, respetando la privacidad del paciente, para democratizar el esfuerzo.

“Lo que se hizo cada vez más evidente para nosotros como financiadores es que la naturaleza de la ciencia ha cambiado fundamentalmente en los últimos años y es sustancialmente más computacional por diseño que nunca antes”, dice Mateen.

Conjuntos de datos y algoritmos

Una pregunta central de la conferencia giró en torno a cómo se representa la raza en los conjuntos de datos, ya que es una variable que puede ser fluida, autoinformada y definida en términos no específicos.

“Las desigualdades que estamos tratando de abordar son grandes, sorprendentes y persistentes”, dice Sharrelle Barber, profesora asistente de epidemiología y bioestadística en la Universidad de Drexel. “Tenemos que pensar cuál es realmente esa variable. Realmente, es un marcador de racismo estructural”, dice Barber. “No es biológico, no es genético. Lo hemos estado diciendo una y otra vez”.

Algunos aspectos de la salud están puramente determinados por la biología, como las condiciones hereditarias como la fibrosis quística, pero la mayoría de las condiciones no son sencillas. Según el oncólogo del Hospital General de Massachusetts, T. Salewa Oseni, cuando se trata de la salud y los resultados del paciente, la investigación tiende a asumir que los factores biológicos tienen una influencia enorme, pero los factores socioeconómicos deben considerarse con la misma seriedad.

Incluso cuando los investigadores de aprendizaje automático detectan sesgos preexistentes en el sistema de atención médica, también deben abordar las debilidades en los propios algoritmos, como lo destacaron una serie de oradores en la conferencia. Deben lidiar con preguntas importantes que surgen en todas las etapas de desarrollo, desde el marco inicial de lo que la tecnología está tratando de resolver hasta la supervisión de la implementación en el mundo real.

Irene Chen, estudiante de doctorado en el MIT que estudia aprendizaje automático, examina todos los pasos de la tubería de desarrollo a través de la lente de la ética. Como estudiante de doctorado de primer año, Chen se alarmó al encontrar un algoritmo «listo para usar», que proyectó la mortalidad de los pacientes, produciendo predicciones significativamente diferentes basadas en la raza. Este tipo de algoritmo también puede tener impactos reales; guía cómo los hospitales asignan recursos a los pacientes.

Chen se dispuso a comprender por qué este algoritmo producía resultados tan desiguales. En un trabajo posterior, definió tres fuentes específicas de sesgo que podrían desenredarse de cualquier modelo. El primero es el «sesgo», pero en un sentido estadístico: tal vez el modelo no se ajuste bien a la pregunta de investigación. El segundo es la varianza, que está controlada por el tamaño de la muestra. La última fuente es el ruido, que no tiene nada que ver con modificar el modelo o aumentar el tamaño de la muestra. En cambio, indica que algo sucedió durante el proceso de recopilación de datos, un paso antes del desarrollo del modelo. Muchas inequidades sistémicas, como un seguro médico limitado o una desconfianza histórica hacia la medicina en ciertos grupos, se “enrollan” en ruido.

“Una vez que identifique qué componente es, puede proponer una solución”, dice Chen.

Marzyeh Ghassemi, profesora asistente en la Universidad de Toronto y profesora entrante en el MIT, ha estudiado el equilibrio entre anonimizar datos de salud altamente personales y garantizar que todos los pacientes estén representados de manera justa. En casos como la privacidad diferencial, una herramienta de aprendizaje automático que garantiza el mismo nivel de privacidad para cada punto de datos, las personas que son demasiado «únicas» en su cohorte comenzaron a perder influencia predictiva en el modelo. En los datos de salud, donde los ensayos a menudo subrepresentan a ciertas poblaciones, «las minorías son las que parecen únicas», dice Ghassemi.

“Necesitamos crear más datos, debe ser información diversa”, dice ella. “Estos algoritmos robustos, privados, justos y de alta calidad que estamos tratando de entrenar requieren conjuntos de datos a gran escala para su uso en investigación”.

Más allá de Jameel Clinic, otras organizaciones están reconociendo el poder de aprovechar diversos datos para crear una atención médica más equitativa. Anthony Philippakis, director de datos del Instituto Broad del MIT y Harvard, presentó el programa de investigación All of Us, un proyecto sin precedentes de los Institutos Nacionales de Salud que tiene como objetivo cerrar la brecha para las poblaciones históricamente subreconocidas mediante la recopilación de datos observacionales y longitudinales. datos de salud de más de 1 millón de estadounidenses. La base de datos está destinada a descubrir cómo se presentan las enfermedades en diferentes subpoblaciones.

Una de las preguntas más importantes de la conferencia, y de AI en general, gira en torno a la política. Kadija Ferryman, antropóloga cultural y bioética de la Universidad de Nueva York, señala que la regulación de la IA está en pañales, lo que puede ser algo bueno. “Hay muchas oportunidades para que se creen políticas con estas ideas sobre la equidad y la justicia, en lugar de tener políticas que se han desarrollado y luego trabajar para tratar de deshacer algunas de las regulaciones de políticas”, dice Ferryman.

Incluso antes de que la política entre en juego, existen ciertas prácticas recomendadas que los desarrolladores deben tener en cuenta. Najat Khan, directora de ciencia de datos de Janssen R&D, alienta a los investigadores a ser «extremadamente sistemáticos y minuciosos desde el principio» al elegir conjuntos de datos y algoritmos; la factibilidad detallada sobre la fuente de datos, los tipos, la falta, la diversidad y otras consideraciones son clave. Incluso los grandes conjuntos de datos comunes contienen sesgos inherentes.

Aún más fundamental es abrir la puerta a un grupo diverso de futuros investigadores.

“Tenemos que asegurarnos de que estamos desarrollando e invirtiendo nuevamente en talentos de la ciencia de datos que sean diversos tanto en sus antecedentes como en sus experiencias y garantizar que tengan oportunidades para trabajar en problemas realmente importantes para los pacientes que les importan”, dice Khan. «Si hacemos esto bien, verán… y ya estamos empezando a ver… un cambio fundamental en el talento que tenemos: un grupo de talentos más bilingüe y diverso».

La conferencia AI for Health Care Equity fue coorganizada por la Clínica Jameel del MIT; Departamento de Ingeniería Eléctrica y Ciencias de la Computación; Instituto de Datos, Sistemas y Sociedad; Instituto de Ingeniería y Ciencias Médicas; y la Facultad de Informática Schwarzman del MIT.

Loading

Danos tu valoración..

mauricio Valdés

Bloguero de aficionado y redactor de mi revista, utilizo codigos sagrados, me apasiona el Internet y la informática, lector de psicología, espiritualidad, criptomonedas, salud, llevo una vida simple con grandes sueños...

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *