[목차]
Ⅰ. 머리말
Ⅱ. 인공지능법과 위험기반 인공지능 모델
Ⅲ. 인공지능시대 개인정보 보호 관련 쟁점 및 대응
Ⅳ. 맺음말
[국문요지]
초연결·초지능사회로의 격변으로 등장한 인공지능기술의 편리함에 지나치게 도취하게 되면 시스템의 설계상의 오류나 운용과정에서의 잘못을 애써 외면하거나 축소하기도 한다. 더욱이 전통적 위험체계에 적응된 규범은 새로운 기술발전에 따른 위험의 대응 및 규율에는 여전히 생소할 수밖에 없어서 제도적 대응도 난해하다. 특히 인공지능의 활용에 따라 대규모로 수집되고 처리되는 개인정보에 대한 여러 위협에 대해서는 여전히 지적되고 그 개선이 요청되는 여전히 해결해야 할 과제이다. 이에 대해 유럽은 인공지능으로부터의 폐해를 방지하고 그 관리를 위한 입법적 추진을 통해 세계 최초로 AI 규제법인 ‘인공지능법’을 제정하기에 이르렀다. 이 법은 인공지능을 위험기반 접근방식에 따라 유형화하고 있고, 그에 따라 각각의 대응규율을 마련하고 있다.
인공지능기술에 수반하는 개인정보에 대한 다양한 위험에 대응하기 위해서는, 그 위험에 대응 및 관리하는 제도적 장치 및 기술적 수단을 확보하는 것과 함께 인공지능기술체계에서 등장하는 인공지능시스템(서비스) 제공자와 이용자, 그리고 정보주체의 3면의 관계를 규범조화적으로 고려하여 사회적 수용성을 제고하기 위한 방법도 모색되어야 한다. 구체적으로 인공지능시스템(서비스)에서 우리의 개인정보 보호법의 개인정보처리자의 포섭 및 확정, 인공지능의 학습과정에서 개인정보 보호와 관련된 공개된 개인정보 수집·활용에 있어 동의의 처리와 식별방지를 위한 가명처리 및 재식별 위험방지 조치, 결과산출 과정에서 예외적 편향 교정을 위한 민감정보의 처리, 신뢰받는 인공지능시스템 설계를 위한 개인정보 보호 중심 설계, 인공지능분야 규제샌드박에서의 개인정보의 처리 등의 쟁점에 관해 법정책적 방안을 제시하고자 하였다.
신뢰받는 개인정보 보호체계의 구축을 위해서는 초지능사회에서 다양한 기술진보에 대해 규제에 초점을 맞추기 보다는 향후 기술적 발전을 고려하여 기술중립성에 기초한 보편적으로 적용타당하고 일관된 규율방향을 제시되어야 한다. EU 인공지능법은 이러한 방향의 제시에 하나의 표본이 될 수 있다. 이를 통해 인공지능기술 발전에 비해 더딘 개인정보 보호규범체계의 미비점을 발견하고, 이를 보완함으로써 신뢰받는 개인정보 규범체계를 구축할 수 있을 것이다. 이를 위해 인공지능에 의해 수집·이용·제공되는 개인정보의 안전하게 처리할 수 있는 기술개발뿐 아니라 개인정보 보호법령의 적용을 위한 기준과 관련 법적 쟁점의 분석 및 법정책적 검토가 필수적으로 요청된다. 또한 인공지능기술의 규범화와 관련하여서는, 먼저 인공지능기술에서 발생하는 행위의 불법성은 통제하되 고위험AI 등 기술위험에 대해서는 각 위험에 따른 체계적 대응 등 리스크 기반의 규율을 하고, 위험이 낮은 경우 인공지능시스템(서비스) 제공자 및 운영자의 자율규제 허용 또는 인증제도 운영과 그에 따른 사후적 책임귀속 제도의 보완 등을 함으로써 규제 체계 전반의 제도구축에 노력할 필요가 있다.