초록 close

Now and in the future, AI is inevitable and necessary for our lives in almost every respect. There are many aspects and consequences our use of AI and the AI itself (as an independent actor in the future) generate, some of which are good, valuable as intended and desired by us human beings, but some of which are bad, harmful, or dangerous whether it is intended or not. Ever since AI was started to be used, there has been a variety of discussions on the ethics which may work as guidelines for the regulation of its development and use. Some of the ethics have not yet become enforceable norm and some others exist already as a part of regulation enforceable under the power of governments. The designers or developers of such ethics are diverse from an individual to international organizations. Almost all of the AI Ethics are not sufficiently satisfying the requirements, needs, and hopes of the society members not only local level, but, national or international level. They lack something in ensuring to make all the stake-holders’ participation in developing the ethics and to achieve such key objectives as the accountability, explainability, traceability, no-bias, and privacy protection in the development, use, and improvement of AI. Based upon the review and analysis of the currently available AI Ethics, this article tries to find and suggest a method to design, develop, and improve continuously the AI Ethics through the National AI Ethics Platform where all the relevant stake-holders participate and exchange ideas and opinions together with the AI itself as a device to help, with its great capacity to deal with big data, all the processing and operation of the ethics through simulations utilizing all the input data provided by the participants and the situations surrounding the participants not in a static mode but a dynamic continuing mode.


현재와 미래에 있어서 AI는 우리의 생활의 거의 모든 영역에서 필수적이고 불가피한 것이 되었다. 우리의 AI의 사용과 AI 자체(미래의 독립된 행위 주체로서)는 여러 가지 면에서 그로 인하여 초래되는 사태들이 있는데, 어떤 것들은 유익한 것들이지만, 우리가 의도한 것과 상관없이 악하고 해로우며 위험한 것들도 있다. AI가 사용되기 시작한 이래 그것의 개발과 사용에 관한 규율을 위한 가이드라인으로서의 AI 윤리에 대하여 다양한 논의들이 있었다. 그 윤리들 중 어떤 것들은 규범으로서 전혀 강제력이 없는 것이고, 어떤 것들은 정부의 공권력으로 강제 가능한 규범의 일부분이 된 것들도 있다. 그 윤리들을 설계하거나 개발한 주체는 개인에서부터 기관 및 국제기구 등 다양하다. AI 윤리가 필요한 것은 그것이 AI 관련된 법률의 해석이나 새로운 법률 제정의 기초가 되고 사회 규범으로서 실효적으로 작동되어야 하는 것이기 때문이다. 더구나 지금과 같은 글로벌 시대에는 국제사회의 필요도 충족시켜야 한다. 그런데 거의 모든 AI 윤리들은 그러한 사회 구성원들의 요구와 필요들을 만족시키지 못하고 있는 것이 현실이다. 예컨대 AI의 개발과 사용 및 그 개선에 있어서 모든 이해관계자들의 의견이 반영되는 것과 중요한 윤리적 목표들인 책임성, 설명 가능성, 편견 제거, 사생활 보호 및 사회적 보호(고용 보호) 등이 실질적으로 달성되는데 있어서 부족함이 있다. 본 논문은 현재의 다양한 AI 윤리들의 연구와 분석에 근거하여 “National AI Ethics Platform”라고 명명한 방법으로 AI 윤리를 설계하고 개발하며 지속적으로 개선하는 수단을 제안하였다. 이 플랫폼은 정부의 입법기관과 법집행 기관을 포함한 모든 이해관계자들이 참여하여 아이디어와 의견을 교환하는데 이에는 빅 데이터를 처리할 능력을 가진 AI 자체도 함께 참여하는 방식이다. 여기서 AI는 참여자들이 제시하는 모든 것들과 그 참여자들을 둘러싸고 있는 상황들을 입력한 데이터를 활용하여 정적인 방식과 동적인 지속적 방식을 사용하는 시뮬레이션을 통하여 합당한 윤리를 개발하고 그 적용 절차의 진행과 실행을 수행하는데 도움을 주게 되는 체계이다.