El profesor Aleksander Madry se esfuerza por construir modelos de aprendizaje automático que sean más confiables, comprensibles y sólidos.
MIT como profesor junior trabajando en ese campo. Para su disertación de doctorado, Madry desarrolló algoritmos que resolvieron una serie de problemas de larga data en algoritmos gráficos, lo que le valió el premio de disertación doctoral George M. Sprowls de 2011 a la mejor tesis doctoral del MIT en ciencias de la computación.
Después de su doctorado, Madry pasó un año como posdoctorado en Microsoft Research New England, antes de enseñar durante tres años en el Instituto Federal Suizo de Tecnología de Lausana, que Madry llama «la versión suiza del MIT». Pero su alma mater seguía llamándolo: “El MIT tiene la energía emocionante que me faltaba. Está en mi ADN”.
poniéndose adversario
Poco después de unirse al MIT, Madry se vio envuelto en una ciencia novedosa: el aprendizaje automático. En particular, se centró en comprender el paradigma reemergente del aprendizaje profundo. Esa es una aplicación de inteligencia artificial que utiliza múltiples capas informáticas para extraer características de alto nivel de la entrada sin procesar, como el uso de datos a nivel de píxel para clasificar imágenes. El campus del MIT estaba, en ese momento, repleto de nuevas innovaciones en el dominio.
Pero eso planteaba la pregunta: ¿el aprendizaje automático era pura exageración o ciencia sólida? “Parecía funcionar, pero en realidad nadie entendió cómo y por qué”, dice Madry.
Responder a esa pregunta puso a su grupo en un largo viaje, realizando un experimento tras otro en modelos de aprendizaje profundo para comprender los principios subyacentes. Un hito importante en este viaje fue un artículo influyente que publicaron en 2018, desarrollando una metodología para hacer que los modelos de aprendizaje automático sean más resistentes a los «ejemplos adversos». Los ejemplos adversarios son ligeras perturbaciones en los datos de entrada que son imperceptibles para los humanos, como cambiar el color de un píxel en una imagen, pero que hacen que un modelo haga predicciones inexactas. Iluminan una deficiencia importante de las herramientas de aprendizaje automático existentes.
Continuando con esta línea de trabajo, el grupo de Madry demostró que la existencia de estos misteriosos ejemplos contradictorios puede contribuir a la forma en que los modelos de aprendizaje automático toman decisiones. En particular, los modelos diseñados para diferenciar imágenes de, por ejemplo, gatos y perros, toman decisiones basadas en características que no se alinean con la forma en que los humanos hacen clasificaciones. Simplemente cambiar estas características puede hacer que el modelo clasifique erróneamente a los gatos como perros, sin cambiar nada en la imagen que sea realmente significativo para los humanos.
Los resultados indicaron que algunos modelos, que pueden usarse, por ejemplo, para identificar anomalías en imágenes médicas o ayudar a los automóviles autónomos a identificar objetos en la carretera, no están exactamente a la altura. “La gente a menudo piensa que estos modelos son sobrehumanos, pero en realidad no resolvieron el problema de clasificación que pretendemos que resuelvan”, dice Madry. “Y su completa vulnerabilidad a los ejemplos adversarios fue una manifestación de ese hecho. Ese fue un hallazgo revelador”.
Es por eso que Madry busca hacer que los modelos de aprendizaje automático sean más interpretables para los humanos. Los nuevos modelos que ha desarrollado muestran cuánto ciertos píxeles en las imágenes en las que se entrena el sistema pueden influir en las predicciones del sistema. Luego, los investigadores pueden modificar los modelos para enfocarse en grupos de píxeles más estrechamente correlacionados con características identificables, como detectar el hocico, las orejas y la cola de un animal. Al final, eso ayudará a que los modelos sean más parecidos a los humanos, o «superhumanos», en sus decisiones. Para promover este trabajo, Madry y sus colegas fundaron recientemente el MIT Center for Deployable Machine Learning , un esfuerzo de investigación colaborativo dentro de MIT Quest for Intelligence que está trabajando para construir herramientas de aprendizaje automático listas para su implementación en el mundo real.
“Queremos el aprendizaje automático no solo como un juguete, sino como algo que pueda usar, por ejemplo, en un automóvil autónomo o en el cuidado de la salud. En este momento, no comprendemos lo suficiente como para tener suficiente confianza en él para esas aplicaciones críticas”, dice Madry.
Dando forma a la educación y la política
Madry ve la inteligencia artificial y la toma de decisiones (“AI+D” es una de las tres nuevas unidades académicas del Departamento de Ingeniería Eléctrica y Ciencias de la Computación) como “la interfaz de la computación que va a tener el mayor impacto en la sociedad”.
En ese sentido, se asegura de exponer a sus alumnos al aspecto humano de la informática. En parte, eso significa considerar las consecuencias de lo que están construyendo. A menudo, dice, los estudiantes serán demasiado ambiciosos en la creación de nuevas tecnologías, pero no han pensado en las posibles ramificaciones en los individuos y la sociedad. “Construir algo genial no es razón suficiente para construir algo”, dice Madry. “Se trata de pensar no si podemos construir algo, sino si debemos construir algo”.
Madry también ha estado participando en conversaciones sobre leyes y políticas para ayudar a regular el aprendizaje automático. Un punto de estas discusiones, dice, es comprender mejor los costos y beneficios de liberar tecnologías de aprendizaje automático en la sociedad.
“A veces sobreestimamos el poder del aprendizaje automático, pensando que será nuestra salvación. A veces subestimamos el costo que puede tener para la sociedad”, dice Madry. «Para hacer correctamente el aprendizaje automático, todavía queda mucho por descubrir».