초록 close

벡터 부호책 설계에 사용되는 기존 K-means 알고리즘은 모든 학습반복에서 고정된 가중치를 적용하는데 반해 제안된 방법은 학습반복마다 가변되는 가중치를 적용한다. 초기 학습반복에서는 새로운 부호벡터를 얻기 위해 수렴영역을 벗어나는 2 이상의 가중치를 사용하고, 이 값이 클수록 가변 가중치를 적용하는 학습반복을 줄임으로써 우수한 부호책을 설계할 수 있다. 초기 부호책 설계에 사용되는 미세분할 방법을 개선하기 위하여 소속 학습벡터와 대표벡터간의 오차를 줄이는 방법을 사용한다. 즉 자승오차가 최대인 대표벡터를 제외시키고 최소인 대표벡터를 미세분할함으로써 초기 부호벡터로 대체될 보다 적절한 대표벡터를 얻을 수 있다.


While the conventional K-means algorithms use a fixed weight to design a vector codebook for all learning iterations, the proposed method employs a variable weight for learning iterations. The weight value of two or more beyond a convergent region is applied to obtain new codevectors at the initial learning iteration. The number of learning iteration applying a variable weight must be decreased for higher weight value at the initial learning iteration to design a better codebook. To enhance the splitting method that is used to generate an initial codebook, we propose a new method, which reduces the error between a representative vector and the member of training vectors. The method is that the representative vector with maximum squared error is rejected, but the vector with minimum error is splitting, and then we can obtain the better initial codevectors.