18.119.107.96
18.119.107.96
close menu
KCI 우수
인공지능 알고리즘의 편향성, 불투명성이 법적 의사결정에 미치는 영향 및 규율 방안
Effects of bias and opacity of artificial intelligence algorithms on legal decision making and its discipline
양종모 ( Yang Jongmo )
법조협회 2017.06
법조 66권 3호 60-105(46pages)
UCI I410-ECN-0102-2018-300-000595777

인공지능의 파급력은 대단하다. 법률 분야에서도 다양한 형태로 인공지능의 활용이 모색되고 있다. 특히 머신러닝이 인공지능의 대세가 되면서 법률분야의 파괴적 혁신을 주도하고 있는 양상이다. 인공지능이 인간의 지능을 초월하는 특이점 현상이 거론되기도 하고, 인공지능으로 인해 많은 직업이 사라지게 될 것이라거나, 또는 인공지능이 인류의 생존에 위협이 될 것이라는 우려 섞인 전망도 없지 않다. 그러나 인공지능은 이미 현실에서 작동되고 있으며 특히 인공지능이 인간의 의사결정을 대체하는 기능을 수행하고 있다는 사실은 간과하기 쉽다. 미국 경찰은 오래 전부터 인공지능 알고리즘을 이용한 범죄예측기법을 사용하여 범죄예방 활동을 벌이면서 범죄율 감소 등 상당한 성과를 거두고 있으며, 형사사법에서도 보호관찰이나 보석결정, 심지어 판결과정에서까지 재범의 위험성 예측을 위한 인공지능의 통계적 예측 기법이 널리 쓰이고 있다. 본고에서는 인공지능 알고리즘에 의한 법적 의사결정이나 예측 과정에서 나타날 수 있는 여러 가지 문제점에 대하여 논의해보고자 하였다. 인공지능 알고리즘에 의한 예측이나 의사결정은 주관이나 편견에 의해 좌우되는 인간의 결정과는 달리 객관적이고 편견에서 자유로울 것이라고 생각하게 마련이지만, 의외로 인공지능 알고리즘에 의한 의사결정은 오류가능성 뿐만 아니라 편향성과 차별적 결과를 보이고 있다는 것이 밝혀졌다. 이러한 인공지능 알고리즘에 의한 의사결정의 편향성과 그로 인한 차별적 결과는 차별금지라고 하는 사회적 가치를 훼손할 우려가 크다. 따라서 이러한 편향성 문제 등 인공지능 알고리즘에 의한 의사결정이 가지고 있는 여러 가지 문제점에 대한 대책으로는 차별적 결과를 시정하는 사후적 규율뿐만 아니라 인공지능 의사결정 도구의 설계와 구현, 성능 평가 과정에서 차별적 결과 생성을 사전에 차단하려는 사전규제 방안을 모색할 필요가 크다. 특히 인공지능 알고리즘에 의한 법적 의사결정과 같은 공적 영역에서는 의사결정의 영향력이 광범위하고 어떤 급부의무나 부작위가 문제되는 사적 영역에서의 개별적 사후 구제와는 다른 방도가 필요한데, 이미 차별적 효과가 발생한 후 사후적 구제를 모색하기 보다는 의사결정 과정에서 차별적 효과를 가져 올 수 있는 알고리즘 요소를 원천 차단하는 것이 효율적일 것으로 보인다. 이러한 사전규제 방안 중 개발과정의 사전 통제와 사용승인을 통한 적법성규제가 우선적 고려 대상이다. 개발과정의 사전 통제에는 윤리적 설계라는 개념도입도 필요한데, 단순히 설계자의 의도대로 작동된다는 수준을 넘어 인공지능알고리즘이 윤리적 기준에 부합하도록 작동한다는 것이 담보되어야 윤리적 설계라고 할 수 있다. 나아가 인공지능 알고리즘을 사용하기 전에 알고리즘 코드 위주의 분석인 정적 분석과 실제 알고리즘의 작동 과정을 살피는 동적 분석 등이 행하여져야 한다. 나아가 인공지능 알고리즘이 활용되면 의사결정의 자동화가 이루어져 어느 누구도 의사결정으로 초래된 위험이나 과오에 대하여 책임지지 않는다는 문제가 생긴다. 따라서 법적 의사결정에 규범적 근거를 제공하고 책임 주체를 명확히 한다는 측면에서 의사결정 과정에 인간의 간여가 필요하다. 이러한 사전 규제외에도 인공지능 알고리즘의 불투명성 해소도 규율의 큰 그림에 포함되어야 한다. 머신러닝과 같은 알고리즘은 블랙박스와 같이 작동되고, 인간이 그 작동과정을 제대로 감독할 수 없다는 불투명성이 항상 문제되지만, 설계 과정에서 이러한 불투명성을 해소하도록 강제하고, 특히 차별적 결과를 보이는 알고리즘의 경우는 작동과정의 설명 의무 부과 등으로 불투명성 문제를 해소하는 노력이 필요하다.

In the field of law, artificial intelligence is being explored in various forms. Especially, machine learning is leading the destructive innovation in the field of law as the artificial intelligence becomes popular. There are also concerns that artificial intelligence may be mentioned as a singular phenomenon that transcends human intelligence, that many jobs are lost due to artificial intelligence, or that artificial intelligence is a threat to the survival of mankind. However, it is easy to overlook the fact that artificial intelligence is already operating in reality, and that artificial intelligence, in particular, plays a role in human decision-making. US police have long been engaged in crime prevention activities using artificial intelligence-based crime prediction techniques and have achieved considerable achievements such as reduced crime rates. In the judiciary, for example, probation, bail, and even judgment, models to predict recidivism is widely used. Although it is thought that decision making such as prediction by artificial intelligence will be free from objectivity and prejudice unlike human decision which is influenced by subjectivity, it is surprisingly revealed that decision making by artificial intelligence is biased and particularly discriminatory. The biased nature of decision making by artificial intelligence and its discriminatory results are likely to undermine the social value of prohibiting discrimination. Therefore, the countermeasures against various problems of decision making by artificial intelligence such as biased problems include not only posterior discipline that corrects differential results, but also generation of differential results in the design, implementation, and performance evaluation of artificial intelligence decision tools. There is also a great need for pre-regulation to block in advance. Especially in the public domain, such as legal decision making by artificial intelligence algorithms, there is a need for a different approach to individual remediation in the private domain, where decision making has a wide range of influences. Rather than seeking redress, it seems effective to block the source of the algorithm elements that can bring discriminative effects in the decision making process. Among these precautionary measures, legality control through prior control of the development process and approval of use is a priority. It is necessary to introduce the concept of ethical design to the pre-control of the development process. It must be ensured that the artificial intelligence algorithm operates in accordance with the ethical standards beyond the merit of being operated by the designer`s intention. Furthermore, before using artificial intelligence algorithms, it is necessary to perform static analysis, which is an algorithm code oriented analysis, and dynamic analysis, which examines the operation process of an actual algorithm. Furthermore, when artificial intelligence algorithms are used, there is a problem that automation of decisions is made so that no one is responsible for the risks or mistakes caused by decisions. Therefore, human intervention in the decision-making process is necessary in order to provide normative grounds for legal decision making and to clarify the responsible party. In addition to these pre-regulations, the resolution of the opacity of artificial intelligence algorithms should also be included in the larger picture of the discipline.

Ⅰ. 서 론
Ⅱ. 인공지능에 의한 자동화된 법적 의사결정과 파급 효과
Ⅲ. 인공지능 알고리즘의 편향성·불투명성으로 인한 법적 의사결정의 차별 등 부정적 영향
Ⅳ. 인공지능에 의한 자동화된 의사결정의 차별적 효과 및 불투명성의 법적 규율방안 모색
Ⅴ. 결 론
[자료제공 : 네이버학술정보]
×