top of page

Nuestras Investigaciones

Fomentamos la cooperación academia-industria mediante colaboraciones internacionales. Comunicamos nuestros resultados en las comunidades científicas del mayor nivel en acústica 3D para arquitectura y realidad virtual.

1. Claridad del Habla y la Música en Espacios Acústicos

Presentación de Alexis Campos, investigador de Perception, en la conferencia internacional de audio inmersivo I3DA 2021.

Cuando los instrumentos musicales se perciben con poca claridad o la comunicación hablada es ininteligible es necesario analizar el espacio acústico para decidir una estrategia de aumento del confort auditivo.

La manera tradicional de medir la claridad del habla y la música en espacios acústicos no considera todas las direcciones pues utiliza un solo micrófono.

Nuestra propuesta, centrada en el usuario, utiliza un arreglo de micrófonos concéntricos para distinguir las diferentes direcciones desde las cuales los sonidos llegan a cada oyente.

Te invitamos a ver los detalles de nuestra investigación en el paper y en el video presentados en I3DA 2021.

Referencia

A. Campos, S. Sakamoto, and C. D. Salvador, “Directional early-to-late energy ratios to quantify clarity: A case study in a large auditorium,” International Conference on Immersive and 3D Audio (I3DA), Bologna, Italy, September 2021.​

DOI: 10.1109/I3DA48870.2021.9610935

La anatomía externa de los oídos y los movimientos de la cabeza determinan una función de transferencia acústica utilizada para espacializar fuentes sonoras alrededor del oyente mediante audífonos.

El modelamiento convencional de la función de transferencia del oyente considera sonidos a distancias mayores a un metro.

Nuestra propuesta aumenta el realismo de la espacialización gracias a la capacidad de modelar funciones de transferencia para fuentes sonoras muy cercanas a la cabeza del oyente.

Te invitamos a ver el video y a leer las referencias para conocer más sobre nuestras investigaciones.

Referencias

  1. C. D. Salvador, A. Urviola and S. Sakamoto, “Ear centering in the spatial and transform domains for near-field head-related transfer functions,” 24th International Congress on Acoustics (ICA 2022), Gyeongju, South Korea, Oct. 2022. Paper en PDF

  2. A. Urviola, S. Sakamoto, and C. D. Salvador, “Ear centering for accurate synthesis of near-field head-related transfer functions,” Appl. Sci., vol. 12, no. 16, 2022. DOI: 10.3390/app12168290

  3. A. Urviola, S. Sakamoto, and C. D. Salvador, “Ear centering for near-distance head-related transfer functions,” International Conference on Immersive and 3D Audio (I3DA), Bologna, Italy, September 2021. DOI: 10.1109/I3DA48870.2021.9610891

2. Espacialización de Sonidos Cercanos con Audífonos

Presentación de Ayrton Urviola, investigador de Perception, en la conferencia internacional de audio inmersivo I3DA 2021.

Presentación de César Salvador en el congreso internacional de acústica ICA 2022.

3. Reverberación Direccional en Espacios Acústicos

Breve introducción de Julio Alarcón, investigador de Perception, en la conferencia internacional de tecnología INTERCON 2021.

El sonido, al propagarse en un espacio acústico, interactúa con superficies y materiales produciendo eco o reverberación.

Para discernir las direcciones desde las cuales la reverberación llega al oyente esta se debe medir utilizando un arreglo esférico de micrófonos. La resolución direccional de los arreglos disponibles es, sin embargo, limitada.

Nuestra propuesta aumenta la resolución direccional de la reverberación utilizando métodos de interpolación en la esfera.

Te invitamos a revisar los detalles de nuestra investigación en el paper y en el video presentados en INTERCON 2021.

Referencia

J. Alarcón, J. Solis, and C. D. Salvador, “Regularized spherical Fourier transform for room impulse response interpolation,” XXVII International Conference on Electronics, Electrical Engineering, and Computing (INTERCON), Lima, Peru, August 2021.

DOI: 10.1109/INTERCON52678.2021.9532805

GitHub: AlarconGanoza/sphericalAcoustic

El modelamiento de los procesos neuronales que ocurren durante la percepción del sonido es esencial para añadir realismo y naturalidad a los métodos de procesamiento de audio. Estos métodos son útiles, por ejemplo, en dispositivos de ayuda para personas con pérdida auditiva, en sistemas de audio para realidad virtual, y en máquinas para el reconocimiento del entorno acústico.

Te invitamos a revisar los detalles de nuestra investigación en las diapositivas presentadas en Brainware 2021.

Referencia

C. D. Salvador, R. Teraoka, and S. Sakamoto, “Auditory brain models for the localization and identification of sound,” 7th Int. Symp. Brainware LSI, Sendai, Japan, March 2021.

4. Modelos del Cerebro Auditivo

Resumen de la Presentación del Dr. Salvador en Brainware 2021

bottom of page