[목차]
Ⅰ. 들어가며
Ⅱ. 지능정보기술의 위험성과 사회적 수용성
Ⅲ. 지능정보기술의 위험 통제를 위한 입법적 대응
Ⅳ. 지능정보사회의 위험 통제 원칙?조직?제도
Ⅴ. 맺으며
[국문요지]
인공지능(AI: artificial intelligence)을 비롯한 지능정보기술이 우리 사회의 주요 변인이자 동력으로 작용하면서 이른바 ‘지능정보사회’로의 패러다임 전환이 가속화되고 있다. 지능정보기술은 활용 분야와 개발 목적에 따라 다양한 양태를 보이며, 그에 부수하는 위험의 성격과 수준도 일정하지 않다. 막대한 양의 개인정보를 활용하는 머신러닝 기반의 인공지능 시스템에서는 정보주체의 프라이버시 침해 위협이 상존할 뿐만 아니라 데이터?알고리즘의 편향성 내지 불투명성은 또 다른 권익 침해 가능성을 내포하는 등 위험의 내용과 구조는 단순하지 않다. 지능정보기술 기반의 자동화 시스템이 사람의 의사결정과 행위를 대체?보완하는 경우에는 행위와 결과 간의 상당인과관계나 기존의 위험책임 법리를 적용하기 어려운 제3의 위험 영역이 생겨나기도 한다.
최근 몇 년 사이에 지능정보기술, 특히 인공지능의 위험성에 대한 학계 논의가 활발히 이루어지면서 ‘인공지능 규범’을 창출하는 연구나 입법 사례가 급증하였다. 우리 국회에서는 지능정보화 정책 추진 및 거버넌스 정립을 도모하는 여러 법안이 발의되었고, 그 선두에서 ?지능정보화 기본법?이 통과되어 2020년 12월부터 시행되고 있다. 이 법은 사회적 영향평가, 안전성 보호조치 등 지능정보화의 위험에 대처하는 규제행정의 수단도 포함하고 있으나, 법 집행을 위한 구체적인 시행령이나 행정입법은 아직 미비한 상태이다. 또한 이 법은 주로 국가의 지능정보화 정책 방침을 체계화한 것으로, 인공지능 시스템으로부터 야기되는 차별취급, 불공정행위, 절차위반 등에 대한 법적 규율이 구체화되어 있지는 않다. 따라서 현행 ?지능정보화 기본법?만으로는 지능정보기술 특유의 위험에 다각도로 대응할 수 없으며, 유효적절한 행정 개입을 위한 별도의 후속 입법이 필요하다.
지능정보기술 분야 규제행정은 무엇보다 사적 통제와 공적 통제의 기능 배분을 최적화하는 데 주안점을 두어야 한다. 즉, 지능정보기술의 위험을 통제하는 동시에 그 사회적 수용성을 높이기 위해서는 규제행정 상대방의 자율규제를 허용하되 리스크 관리, 행위의 불법성 통제, 사후적 책임 귀속 등에 초점을 둔 규제법 질서를 정립할 필요가 있다. 이러한 법체계 전환의 목표는 공동규제를 실현하는 조직 및 절차를 마련하고 필수 적합성 평가, 인증, 영향평가 등 관련 제도를 구체화해 나감으로써 점진적으로 실현할 수 있을 것이다.