[오디오 101]Chapter4. 사람의 귀는 어떻게 소리를 인지할까
카테고리: audio
4 사람의 귀는
사람마다 다른 귀 모양
- 사람들의 서로다른 귀모양은 소리를 다르게 느끼게 해줍니다. 귀에 손을 가까이 대보기만 해도 들리는 소리가 달라짐
-
기본적으로 소리는 귀를 타고 신경을 자극시켜서 뇌에 도달
아시다시피, 뇌에서 청각, 촉각, 시각 정보를 종합적으로 받아들이고 방금 들어온 소리가 어떤 소리인지 판단
이번 챕터는 3가지 구성
1)Ear anatomy => 어떻게 소리가 뇌에 전달되는지
2)Loudness => 사람이 인지하는 소리에 대한 내용(Loudness contour)
3)Auditory function => 귀속의 대뇌 피질이 어떻게 정보를 해석하는지
4.1 귀의 해부학적 구조
귀는 크게 세가지 파트로 나뉘어 질 수 있다
바깥, 중간, 안쪽(외이, 중이, 내이)
**1번(바깥쪽)**
에서는 소리를 ‘잘’ 들어올수 있도록 가이드 해주는 역할을 함. 소리들을 잘 모아줍니다. 오디오신호의 앞뒤를 구분할 수 있도록 서포트 해주고, 소리의 민감도를 올려줄 수 있도록 도와주는 역할
2번(중간)
에는 고막이 있습니다. 외이를 통해 들어온 소리는 고막을 진동시키고, 이와 연결된 모루뼈, 등자뼈를 진동시키고 내이로 소리를 보내줍니다. 중이의 가장 큰 역할은 이처럼 소리를 전달(transmission)해주는 역할입니다. 소리가 만약 3번(내이)로 직빵으로 흘러들어오게 된다면, 소리의 반사가 너무 심해서 웅웅거릴 것이며, 너무 강한 소리가 들어왔을 때 귀 안쪽의 민감한 기관들이 손상될 것입니다. 따라서, 뇌가 중이의 근육을 이용하여 아주 빠른 속도로(10ms의 반사신경속도) 과도한 음압(시끄러운소리)을 적정 차단해주는 역할도 도맡고 있습니다. 이처럼 소리의 반사를 줄여주고, 음압으로 부터 보호하는 역할을 거치고 나면 정제된 소리가 우리의 가장 깊숙한 내이로 들어오게 됩니다.
3번(안쪽)
에는 달팽이관이 있습니다. 우리가 정말 소리를 ‘인식’하는 과정은 여기에 있습니다. 달팽이관의 15,500개의 털들이 소리에따라 반응하고 이 신호들이 우리의 뇌를통해 들어오게 됩니다. (달팽이처럼 똘똘똘 말려있는데, 위의 사진에서는 이해를 위해 달팽이관을 쭉~늘려둔것 같습니다)
달팽이관(쭉 펴면 3.4cm정도의 길이)
림프액 속에 튜브가 있고, 그 속에 있는 털들이 튜브 속으로 들어오는 소리들을 주파수별로 분석을 해서 뇌에 전달을 하게 됩니다.
달팽이관의 길이 별 주파수 인식
위의 그래프는 거리 별 인식 가능 주파수입니다. 그러니까 특정 위치의 털은 자신이 임무를 맡은 주파수를 기준으로 특별히 더 예민하게 인식을 하게 되고, 이렇게 촘촘하게 주파수 범위 별로 windowing되어있는 센서들이 소리를 정확히 인식합니다.
(*정확히는, 달팽이관 밑의 기저막(basilar membrane)이 그 신호를 인식하여 소리를 뇌로 전달합니다)
3500개의 band frequency 범위를 인식할 수 있으며, 이는 high resolution을 가진 FFT 분석기와 동급의 성능이라고 합니다.
이렇게 소리가 달팽이관 속으로 들어오면 털리 들을 ‘증폭’ 시키기 위함입니다. 이렇게 운동에너지를 신경계의 화학 에너지로 전달하는 과정에서, 털들의 진들이 흔들리고, 이 진동을 inner hair cell에 전달을 하는 구조입니다. 이렇게 털들이 나와있는 이유는, 미세한 소동은 시스템 민감도를 60dB까지 증폭 시킬 수 있습니다.
위의 그림처럼 소리가 지나가면, 털이 눕습니다.
털 - 전달
털이 바람에 눕듯이, 귀 속의 털들도 눕고, 이 정보를 전달합니다. 하지만 바람이 강하게 불면 어떻게 될까요? 과도한 음압은 털을 강하게 자극하고, 너무 강력한 소리가 들어오게 된다면 이 털이 뽑힐수 있습니다. 너무 큰 Loudness로부터 우리의 귀를 보호해야하는 이유입니다.
이처럼, 너무 큰 Loudness에 장시간 노출시 달팽이관 내부의 털이 (고통과 함께)뽑히게 되고, 영구적인 청력손실을 일으킬 수 있습니다.
털 - 누웠다, 일어났다
털이 한번 자극되고 나면, 다시 일어서야 새로운 소리가 들어왔음을 인지할 수 있습니다. 1500kHz에서는 진동의 절반은 따라갈 수 있다고 합니다. 하지만 그 이상의 주파수에서는 진동의 속도만큼 털이 원복되지 못하고 이는 파장을 단일 소리로 인식합니다.
음악에서 Wabble base라는 악기, 혹은 LFO를 이용한 소리를 들으면 소리가 웅웅거림을 느낄 수 있습니다.
LFO(with ableton)
LFO, 즉 Low Frequency이기 때문에, 털이 누웠다 일어났다를 반복하며 음을 인식 할 수 있는 것이고, 위에서 말한 일정 고주파수 이상으로 가면 한가지 음으로 인식하는 것입니다.
4.2 오디오 세계
ISO226:2003 등청감곡선
4.3 청각기능
뇌간은 양쪽 귀로부터 초당 1800만개의 신호를 받고, 이를 처리해야합니다. 따라서 이 작동을 좀 더 실시간으로 처리하기 위해 뇌간(brain stem)에서 중이의 근육을 무의식으로 조절 합니다. 무의식적인 동작이지만 이는 의식적인 훈련을 통해 좋아질 수 있다고 합니다.
이런 과정을 통해 처리된 신호들은 대뇌 피질(정확히는 auditory cortex)로 보내져서 정보가 처리됩니다. 대뇌피질에서 Barks(위키피디아-Bark scale) 라는 24개의 critical band로 그룹화됩니다. 이 과정을 통해 높낮이, 크기, 음색, 음원의 위치 등을 파악합니다.
눈을 감고 오케스트라를 감상하면, 악기 별 위치가 다르다는 것을 느낄 수 있습니다. 더 멀리서 웅장하게 울려퍼지기도 하고, 왼쪽에서 바이올린 소리가 나기도 합니다. 이렇듯 대뇌는 음의 높낮이와 양쪽 귀에 들려오는 시차를 이용하여, 위치를 localization 시켜줍니다.
눈을 감으면 상상이 됩니다. 친구가 왼쪽에서 말하는지, 자동차가 뒤에서 다가오는지 머릿속으로 그릴 수 있습니다.
실제로 대뇌 피질에서 뇌간에서 넘어온 정보들을 통해 이미지를 만들어냅니다. 또한, 챕터1에서 듣는 이의 시각,촉각, 및 경험이 sound quality에 영향을 끼친다고 했었는데요. 위의 다이어그램에서 보이듯, 대뇌피질에서 청취자의 다른 감각들이 통합되는 모습을 볼 수 있습니다.
이처럼 Sound Quality에는 ‘소리외의 다른 감각’과 ‘경험’등 다양한 심리적인 특성도 반영이 되는데요. 이를 심리음향(psycho acoustics)라고 합니다. 이번 단락에서는 psycho acoustics의 4가지 파라미터들에 대해 다루어 보도록 하겠습니다.
Loudness
바크하우젠은 (가우딘들이 알고있다 시피)동일 dB라도 주파수별로 느끼는 소리의 크기가 다르고(등청감곡선),
개인이 느끼는 Loudness가 음압의 크기와 동일해지는 1kHz tone 을 phone이라는 단위로 정의를 내렸습니다.
Pitch
In psycho-acoustics, pitch is the perceived frequency of the content of an audio signal. If an audio signal is a summary of multiple audio signals from sound sources with individual pitches, the auditory cortex has the unique ability to decompose them to individual aural images, each with their own pitch (and loudness, timbre and localization). Psycho-acoustic pitch is not the same as the frequency of a signal component, as pitch perception is influenced by frequency in a non-linear way. Pitch is also influenced by the signal level and by other signal components in the signal. The unit mel (as in ‘melody’) was introduced to represent pitch ratio perception invoked by frequency ratios in the physical world. Of course in music, pitch is often represented by notes with the ‘central A’ at 440Hz.
Timbre
a. spectrum details b. sharpness c. roughness
Localization
For an average human being, the ears are situated on either side of the head, with the outside of the ear shells (pinnae) approximately 21 centimetres apart. With a speed of sound of 340 meter per second, this distance constitutes a time delay difference for signals arriving from positions at the far left or right of the head (90-degree or -90-degree in figure 413) of plus and minus 618 microseconds - well above the Kunchur limit of 6 microseconds. Signals arriving from sources located in front of the head (0-degree angle) arrive perfectly in time. The brain uses the time difference between the left ear and the right ear information to evaluate the horizontal position of the sound source.
🌜 Thank you for reading it. Please leave your comments below😄
댓글 남기기