3.138.33.178
3.138.33.178
close menu
KCI 등재
인공지능에게 책임을 부과할 수 있는가? : 책무성 중심의 인공지능 윤리 모색
Can we impose responsibilities on artificial intelligence?: To seek accountability-oriented ethics for artificial intelligence
이중원 ( Jungwon Lee )
과학철학 22권 2호 79-104(26pages)
UCI I410-ECN-0102-2021-100-000309798

본 논문에서는 자율적인 행위자로서의 인공지능 시스템이 부정적인 행위 결과를 야기했을 경우 과연 책임을 부과할 수 있는가라는 문제를, 책무성 개념을 중심으로 진지하게 다룰 것이다. 오늘날 인간이 아닌 인공지능 시스템을 놓고 책임 문제를 다시금 논하는 배경은, 선택의 자율성을 지닌 인공지능 시스템이 인간의 실존에 능동적으로 작동하면서 ‘많은 손’의 문제를 일으키고 있고, 그럼에도 책임을 부과하지 않는다면 책임 공백의 문제가 발생할 우려가 있기 때문이다. 따라서 인공지능 시스템에 대해서도 책임 소재의 문제가 발생할 수 있는 상황 조건을 우선 제시할 것이다. 다음으로 인간에게 배타적으로 적용되어 온 전통적인 도덕철학에서의 책임 개념을 뛰어넘어 인간이 아닌 다른 자율적인 행위자에게도 확대 적용될 수 있는 책임 개념의 가능성을, 레비나스의 책임 개념을 중심으로 검토해볼 것이다. 나아가 이를 통해 책임 개념의 외연을 설령 확장 가능하더라도 현재나 가까운 미래의 인공지능 시스템에게 이를 적용하는 것은 쉽지 않음을 밝히고, 인공지능 시스템에 대해 책임(responsibility) 대신 책무(accountability) 개념의 적용을 제안할 것이다. 그리고 이러한 책무성이 인공지능 시스템에서 실질적으로 구현가능한지, 설명 가능한(explainable) 인공지능 시스템을 대상으로 분석할 것이다. 마지막으로 인공지능 시스템에 대해 책무성 중심의 윤리 체계를 구축하는데 필요한 윤리 프레임의 기본 요소들을 제안하는 수준에서, 그러한 윤리 체계의 가능성을 조심스럽게 전망해 보고자 한다.

In this paper, I will examine seriously with the concept of accountability whether we can impose liability on the artificial intelligence system as an autonomous agent when it causes negative behavioral consequences. Today, the background to the issue of responsibility again for non-human artificial intelligence systems is that the artificial intelligence system with autonomy of choice is actively working on the existence of human being, causing the problem of ‘many hands’ and voids of liability. Therefore, I will first give a situational conditions for the artificial intelligence system that can cause problems of responsibility. Secondly, I will examine the possibility of the concept of responsibility to be extended to autonomous actors other than human beings, focusing on the concept of responsibility of Emmanuel Levinas, in spite that the concept of responsibility in traditional moral philosophy has been exclusively applied to human beings. In addition, I will show that it is not easy to apply this concept to present and future artificial intelligence systems, even if it is possible to expand the concept of responsibility. And I suggests application of accountability concept instead of responsibility for artificial intelligence system. I will analyze that this accountability can be practically implemented in an explainable artificial intelligence system. Finally, I will carefully put the possibility of accountability-oriented ethics for artificial intelligence systems into perspective.

1. 문제 제기 - 인공지능 시스템에 대해 왜 책임을 논하는가
2. 책임 개념의 확장 가능성 - 레비나스의 책임 개념
3. 인공지능 시스템, 책임에서 책무로
4. ‘설명 가능한 인공지능 시스템’을 통한 책무성 구현
5. 맺음말 - 책무성 중심의 윤리 프레임을 위하여
참고문헌
[자료제공 : 네이버학술정보]
×