초록 close

본 논문에서는 객체이동을 고려한 배경영상 생성과 사고 후보영역의 보존 및 검증하는 방법을 포함하는 개선된 교차로 교통사고 감지 방법을 제안한다. 교차로 내 신호등 주기를 이용한 교차로 사고감지 방법이 제안된 바 있는데 이는 사고 객체의 가려짐이 발생할 경우 사고를 감지하지 못하는 문제가 발생할 수 있다. 본 논문에서는 역원근변환을 수행하여 객체의 크기를 일정하게 하였으며, 환경잡음에 강건한 배경영상 생성, 객체의 이동정보를 이용한 사고 후보영역의 생성, 에지 정보를 이용한 사고 후보영역의 보존 및 삭제 방법 등을 제안한다. 제안한 알고리즘의 성능을 알아보기 위하여 교차로에 설치된 DVR을 통해 출퇴근 시간대의 영상, 야간 및 주간의 우천 시의 다양한 사고 영상, 조명 및 그림자의 환경적 잡음이 포함된 영상을 저장하여 실험하였다. 실험 결과 실험에 포함된 20건의 사고를 모두 감지하였으며 실제 사고 유효 획득률은 76.9%로 나타났다. 또한 검지영역의 면적에 따라 초당 10~14프레임의 처리속도를 나타내어 실시간 처리에 문제가 없을 것으로 판단된다.


The purpose of this study is to produce a better way to detect crossroad accidents, which involves an efficient method to produce background images in consideration of object movement and preserve/demonstrate the candidate accident region. One of the prior studies proposed an employment of traffic signal interval within crossroad to detect accidents on crossroad, but it may cause a failure to detect unwanted accidents if any object is covered on an accident site. This study adopted inverse perspective mapping to control the scale of object, and proposed different ways such as producing robust background images enough to resist surrounding noise, generating candidate accident regions through information on object movement, and by using edge information to preserve and delete the candidate accident region. In order to measure the performance of proposed algorithm, a variety of traffic images were saved and used for experiment (e.g. recorded images on rush hours via DVR installed on crossroad, different accident images recorded in day and night rainy days, and recorded images including surrounding noise of lighting and shades). As a result, it was found that there were all 20 experiment cases of accident detected and actual effective rate of accident detection amounted to 76.9% on average. In addition, the image processing rate ranged from 10~14 frame/sec depending on the area of detection region. Thus, it is concluded that there will be no problem in real-time image processing.