Los modelos computacionales que imitan la estructura y función del sistema auditivo humano podrían ayudar a los investigadores a diseñar mejores audífonos, implantes cocleares e interfaces cerebro-máquina. Un nuevo estudio del MIT ha descubierto que los modelos computacionales modernos derivados del aprendizaje automático se están acercando a este objetivo.

En el estudio más grande hasta ahora sobre redes neuronales profundas que han sido entrenadas para realizar tareas auditivas, el equipo del MIT demostró que la mayoría de estos modelos generan representaciones internas que comparten propiedades de las representaciones observadas en el cerebro humano cuando las personas escuchan los mismos sonidos.

El estudio también ofrece información sobre cómo entrenar mejor este tipo de modelo: los investigadores descubrieron que los modelos entrenados con información auditiva, incluido el ruido de fondo, imitan más fielmente los patrones de activación de la corteza auditiva humana.

“Lo que distingue a este estudio es que es la comparación más completa de este tipo de modelos con el sistema auditivo hasta el momento. El estudio sugiere que los modelos derivados del aprendizaje automático son un paso en la dirección correcta y nos da algunas pistas sobre lo que tiende a convertirlos en mejores modelos del cerebro”, afirma Josh McDermott, profesor asociado de cerebro y ciencias cognitivas del MIT, miembro del Instituto McGovern de Investigación del Cerebro y del Centro para Cerebros, Mentes y Máquinas del MIT, y autor principal del estudio.

Fuente: Free Think

Para leer más ingresa a: https://www.freethink.com/robots-ai/human-hearing-neural-networks

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *