초록 close

정보이론에 기반한 미지신호분리(BSS: Blind Source Separation) 방법들은 크게 상호 정보량 최소화 (MMI: Minimum Mutual Information)와 정보량 최대화(ME: Maximum Entropy)의 두 가지로 나눌 수 있다. 상호 정보량 최소화 방법을 이용하기 위해서는 출력 신호의 정보량(entropy)을 계산해야 하지만 이를 정확히 구하는 것은 불가능하며 근사식을 이용해야만 한다. 기존의 방법에서 정보량 계산의 오차는 신호의 고차 누율(cumulant)이 클 수록 더 커지게 되며 오차가 커지면서 분리성능이 떨어지게 된다. 반면, 정보량 최대화 방법은 구조적으로 원래 신호의 확률밀도함수(PDF: Probability Density Function)를 알아야 정확한 분리가 가능하지만 이는 문제의 정의상 불가능하므로 일반적인 구현에서는 확률밀도함수를 고정된 두 가지의 함수 중에 출력 신호의 특성에 따라서 선택하게 된다. 이 때 신호가 두 모델 경계근처에 존재하게 되면 적절한 모델 선택에 실패하는 경우가 발생하게 되고 신호가 올바르게 분리되지 않는다. 이 논문에서는 기존의 정보이론에 기반한 미지신호분리 방법들이 가지고 있는 문제점을 보이고 그러한 문제점을 해결할 수 있는 새로운 알고리즘을 제안한다. 제시한 신호분리 알고리즘의 성능 향상을 입증하기 위해 일반적으로 분리 실험에 사용되는 신호들에 대한 분리 실험과 함께 기존의 방법으로 분리되지 않는 신호에 대한 실험을 수행하였다.


Blind Source Separation (BSS) is based on statistical independence between the sources. Minimum Mutual Information (MMI) and the Maximum Entropy (ME) algorithms are ones of mostly used algorithms. However, these conventional algorithms have some drawbacks in several cases. In this paper, we will present some problems of MMI and ME algorithms. Then, a new BSS algorithm is proposed as an algorithm unifying MMI and ME algorithms. It learns the model of original sources in the process of unsupervised learning and has small errors in the approximation of entropy. Thus, it can be considered as the canonical form of information theoretic BSS algorithms. Computer simulation shows that the proposed algorithm yields better performance than the conventional ones