LA INTELIGENCIA ARTIFICIAL NO ENTIENDE A LOS ESTUDIANTES.

Puntos clave

  • El desarrollo de políticas efectivas y mejores prácticas para combatir el sesgo de la IA es esencial para garantizar la efectividad y la equidad de la tecnología educativa.
  • Las tecnologías de reconocimiento de voz brindan un excelente ejemplo de enfoques para resolver problemas de sesgo de IA en la educación.
  • Resolver los problemas de sesgo de la IA en el reconocimiento de voz requiere enfoques innovadores de I+D y el desarrollo de políticas que promuevan la equidad y la eficacia.

Por: Russell Shilling, Ph.D.

La mayoría de nosotros ya hemos experimentado la frustración de hablar con un dispositivo que usa reconocimiento de voz pero no entiende lo que estamos diciendo. En los productos de consumo, los usuarios dejarán de utilizar productos que no satisfagan sus necesidades, pero los alumnos no tienen esta opción en el aula. Los algoritmos ineficientes y el sesgo en los conjuntos de datos de IA son las principales preocupaciones de los investigadores y educadores educativos, a quienes les preocupa que las aplicaciones no sean efectivas en la amplia diversidad de estudiantes en las aulas de nuestra nación. Estas preocupaciones ciertamente no se limitan a los Estados Unidos, sino que representan una preocupación mundial. Es difícil abordar sistemáticamente la eficacia del reconocimiento de voz, dada la falta de orientación política del gobierno, los distritos e incluso las fuentes de financiación públicas y privadas.

Muchas discusiones recientes destacadas en las noticias se han relacionado con varias tecnologías y aplicaciones propensas al sesgo de la IA. Aún así, un excelente ejemplo que merece más atención en edtech son las aplicaciones de reconocimiento de voz que requieren reconocimiento automático de voz (ASR) y procesamiento de lenguaje natural (NLP). El reconocimiento de voz ha proliferado en varios productos de consumo, juguetes, juegos, aplicaciones de productividad y educación. El reconocimiento de voz preciso abre la puerta a productos de tecnología educativa más naturalistas y oportunidades de evaluación en tiempo real en el aula para intervenciones tempranas en dificultades del habla, el lenguaje y la lectura. Sin embargo, estos sistemas actualmente no funcionan bien en la gran diversidad de usuarios a los que aspiran llegar. Por ejemplo, los sistemas ASR no funcionan igual de bien contra diferentes dialectos, grupos de edad,  

Por lo tanto, este tipo de sesgo se traducirá en frustración y resultados adversos en la educación. Sin embargo, el sesgo en ASR, como muchos problemas de sesgo de IA, se puede resolver en gran medida reconociendo las fuentes del sesgo, implementando programas de investigación para soluciones escalables y requiriendo estudios de eficacia confiables antes de que los productos basados ​​en el reconocimiento de voz lleguen al aula.

Si bien las cosas están mejorando, el campo aún no está al nivel que necesitamos para implementar de manera efectiva y consistente herramientas educativas, evaluaciones o terapia del habla que funcionen con precisión para todos los niños. Lo que se requiere es financiamiento adicional para investigación y políticas relacionadas con conjuntos de datos mejorados (corpora) e investigación lingüística destinada a desarrollar algoritmos mejorados. Se pueden hacer varias recomendaciones de política para hacer avanzar el campo.

En primer lugar, es fundamental crear y financiar equipos interdisciplinarios. Desde mi tiempo como oficial de programa en la Agencia de Proyectos de Investigación Avanzada de Defensa ( DARPA ) y aplicando esas filosofías y técnicas a la educación , he aprendido que los equipos de financiación que reflejan la diversidad de pensamiento y experiencia, además de la diversidad étnica, son cruciales para innovación. En este caso, debemos incluir lingüistas, informáticos, científicos de datos y psicólogos en el equipo y consultar a especialistas en ética en el proceso.

En segundo lugar, debemos mejorar la calidad y el tamaño de los conjuntos de datos que representan la diversidad de nuestras poblaciones objetivo en entornos naturalistas, incluidos la edad, el origen étnico, el género, los antecedentes socioeconómicos, los problemas de idioma y los dialectos. Y dadas las tendencias globales de movilidad y migración, debemos fomentar la cooperación internacional para crear conjuntos de datos ASR más diversos y representativos.

Tercero, los conjuntos de datos, junto con los algoritmos, deben estar abiertos al escrutinio. Debemos asegurarnos de que los algoritmos, los conjuntos de datos y las evaluaciones sean justos y transparentes. Los datos y las evaluaciones deben estar disponibles para su examen, y los conjuntos de datos y los algoritmos deben estar abiertos siempre que sea posible.

Finalmente, las evaluaciones de los modelos y los datos deben ser continuas incluso después de que se adopten las soluciones para que se pueda detectar el sesgo o la deriva en la respuesta de las poblaciones objetivo. Esta estrategia de política se recomienda para todas las tecnologías educativas, no solo para las soluciones basadas en IA.

Loading

Danos tu valoración..

mauricio Valdés

Bloguero de aficionado y redactor de mi revista, utilizo codigos sagrados, me apasiona el Internet y la informática, lector de psicología, espiritualidad, criptomonedas, salud, llevo una vida simple con grandes sueños...

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *