초록 close

항공기를 조종하는 상황은 극도로 복잡하고 세밀한 정보처리과정으로 여겨진다. 조종사를 비롯한 모든 사람들은 자신에게 필요한 정보에 주의를 기울이므로 적절한 정보를 선택적으로 처리하는 정보처리과정을 통해 직무를 수행한다. 이러한 주의의 특성 가운데 공간적 정보의 처리는 단일한 감각양식으로 제시되는 정보의 처리보다 이중감각적 연결(crossmodal link)을 통해 동시에 제시되는 공간정보가 주의처리에 대한 용이성 효과를 나타낸다. 본 연구에서는 시각적 공간정보 제시와 함께 청각적으로도 정보를 제시하여 전투기 조종 상황에서의 적기 탐색과 같은 시스템에 적용할 수 있는 가능성을 실험적으로 검증하였다. 본 연구에서 수행된 두 가지 실험은 목표물에 대한 공간적 추적을 시각정보와 함께 음원으로부터 청취자의 두 귀에 입사하는 신호간의 차이를 반영한 입체음향 기술인 머리전달함수(Head-Related Transfer Function; HRTF)를 이용해 생성된 공간적 청각정보를 제시하는 방법으로 수행되었다. 실험의 결과는 청각적으로 제시되는 공간정보가 실제의 위치에서 발생하지 않는 머리전달함수를 통한 가상적 제시일 경우라도 그 주의처리에서 시각적 공간정보만 제시하는 경우보다 용이성 효과를 나타냈으며, 이는 기존 시스템에서 이미 구축되어 있는 간단한 스테레오 시스템만으로도 머리전달함수와 같은 입체음향 생성기술을 이용한 이중감각 연결을 통해 공간적 정보 제시의 적용이 가능하다는 것을 제안해주는 결과이다.


Driving aircraft requires extremely complicated and detailed information processing. Pilots perform their tasks by selecting the information relevant to them. In this processing, spatial information presented simultaneously through crossmodal link is advantageous over the one provided in singular sensory mode. In this paper, probability to apply providing visual spatial information along with auditory information to enemy tracking system in aircraft navigation is empirically investigated. The result shows that auditory spatial information, which is virtually created through HRTF is advantageous to visual spatial information alone in attention processing. The findings suggest auditory spatial information along with visual one can be presented through crossmodal link by utilizing stereophonic sound such as HRTF, which is available in the existing simple stereo system.


키워드close

Auditory Display, Head-Related Transfer Function, Crossmodal Attention, Radar System