초록 close

빅데이터에 근거하여 자동적인 의사결정을 내리는 알고리즘이 사회의 각종 영역에서 점차널리 사용되고 있는 저변에는 알고리즘의 의사결정이 사회의 자원을 보다 효율적으로 분배하리라는 기대 뿐만 아니라 그 결정이 선입견, 편향, 자의적 판단 등이 개입될 수 있는인간의 의사결정보다 더 공정한 결과를 낳으리라는 희망 또한 자리잡고 있다. 하지만 알고리즘의사결정이 그 결정에 의해 영향 받는 이들을 공정하게 다루지 않는다는 주장이 여러 사례와함께 거듭 제기되면서, 의사결정이 어떻게 절차화되었는지, 또한 특정한 의사결정을 공정하다고 판단하는 데에 어떤 요인이 고려되는지에 대한 근본적인 질문들이 새롭게 제기되고있다. 본 논문은 사법, 치안, 국가 안보의 세 가지 알고리즘 활용 영역에서 차별의 문제가제기되는 상황을 구체적으로 분석한 연구들을 검토함으로써, 인공지능 알고리즘이 과연특정 집단의 인간을 차별하는지, 그리고 공정한 의사결정을 분별하는 기준은 무엇인지 살펴보고자 한다. 본격적인 검토에 앞서 데이터 마이닝 각 단계에서 의도적으로 그리고 비의도적으로 편향적인 결과가 산출될 수 있는 원인에는 무엇이 있는지를 살필 것이다. 결론에서는이러한 이론적이고 실질적인 검토가 현대 한국 사회에 시사하는 바가 무엇인지 간추려제시할 것이다.


The contemporary practices of Big-Data based automated decision making algorithms are widely deployed not just because we expect algorithmic decision making might distribute social resources in a more efficient way but also because we hope algorithms might make fairer decisions than the ones humans make with their prejudice, bias, and arbitrary judgment. However, there are increasingly more claims that algorithmic decision making does not do justice to those who are affected by the outcome. These unfair examples bring about new important questions such as how decision making was translated into processes and which factors should be considered to constitute to fair decision making. This paper attempts to delve into a bunch of research which addressed three areas of algorithmic application: criminal justice, law enforcement, and national security. By doing so, it will address some questions about whether artificial intelligence algorithm discriminates certain groups of humans and what are the criteria of a fair decision making process. Prior to the review, factors in each stage of data mining that could, either deliberately or unintentionally, lead to discriminatory results will be discussed. This paper will conclude with implications of this theoretical and practical analysis for the contemporary Korean society.