[아이뉴스24 최은정 기자] "내 정보가 어디에서 어떻게 쓰이는지 모른다."
혐오발언·개인정보 유출 의혹 등으로 논란을 일으킨 인공지능(AI) 챗봇 '이루다'가 남긴 숙제를 요약한 말이다.
지난 15일 국회입법조사처는 '이루다를 통해 살펴본 AI 활용의 쟁점과 과제' 보고서를 발간하고 이루다 사건을 계기로 AI를 안정적으로 활용할 수 있는 기반을 다져야 한다고 보고, 앞으로 해결해야 할 과제를 짚었다.
이번 보고서에서는 ▲개인정보 보호 법제 개선 ▲AI 윤리기준 구체화 ▲학습데이터 확보 등이 주요 해결 과제로 꼽혔다. 향후 개인정보보호를 위한 다각도의 정책적 제언이 실려 주목된다.
◆ '내 정보 어디에 쓰였는지 모른다'…사전·사후통제 강화
법제 부문에서는 개인정보 처리 시 사전동의 절차의 실효성을 높이는 것이 중요하다고 봤다. 개발사 측이 이루다를 학습시키기 위해 연인들의 대화를 수집할 때 '형식적인' 사전동의만 거친 것이 문제가 될 수 있다는 지적이다. 동의서에 너무 많은 설명과 조건이 쓰여 있어 사용자가 구체적인 내용을 파악하기 어려웠다는 것.
또 개인정보 처리에 있어서 사후통제 역시 강화해야 한다는 주장이다. 개인정보보호위원회가 지난달 입법예고한 '개인정보 보호법 일부개정법률안'을 통해 가능할 수 있을지 검토가 필요하다. 해당 개정안은 기관의 직권 또는 민간단체의 청구에 의해 개인정보 처리방침이 법률을 위반하는지를 심사할 수 있도록 하고 있다.
대화 및 영상 등 비정형 데이터를 충분히 가명처리하기 위한 목적으로 가이드라인 개선 등 관련 기준을 강화하는 것도 권고됐다.
◆ 해외 사례 참고해 'AI 윤리기준' 강화해야
현재 국내 AI 윤리기준은 구체화해야 한다. 보고서는 이루다 학습데이터에 포함된 ▲사회적 편견 ▲알고리즘 편향성이 사용자와의 대화로 표출됐다고 분석했다.
보다 구체화된, 검증 가능한 형태의 AI 윤리기준이 필요하다는 말로 바꿀 수 있다. 입법조사처는 이미 선례가 있는 해외 국가를 주목했다.
미국 의회는 지난 2019년 '알고리즘 책임 법안'을 발의해 고위험 자동화 시스템을 평가하는 규칙을 만들었다. 이를 통해 알고리즘 편향성·차별성, 프라이버시·보안 위험 등을 점검하고 있다.
유럽 집행위원회의 경우 작년 3월 발표한 'AI 발전과 신뢰를 위한 백서'에서 고위험 분야의 AI에 대해 안전성 요건을 수립하고 사전 적합성 평가를 받도록 하는 내용을 담았다.
입법조사처 관계자는 "미국·유럽 등의 입법·정책을 참고해 고위험 분야에서는 사전 점검 체계를, 그 외의 분야에서는 자율규제 또는 품질인증 체계 도입을 검토해 볼 수 있을 것"이라며 "사전 점검 방안으로는 학습데이터 관리, 투명한 정보 제공, 인간의 개입 등 기준들을 마련할 필요가 있다"고 말했다.
◆ 정부, 학습데이터 확보로 SMB 지원해야
아울러 중소·중견기업(SMB)과 스타트업 기업을 지원하기 위해 정부가 AI 학습데이터 확보에 더욱 힘써야 한다는 주장이다. 챗봇 등을 개발하는 일부 기업들이 예산·인프라 부족 등 요인으로 충분한 데이터 가명처리, 정제할 여력이 부족했다는 진단에 따른다.
정부는 AI 생태계에서 필요한 학습데이터의 수요를 파악하고, 추진 중인 데이터 댐과 데이터 바우처 지원사업을 면밀히 분석해야 한다. 필요한 분야에 적정 수준의 학습데이터를 제공하는 방안을 마련하는 것도 중요하다.
입법조사처 관계자는 "이번 (이루다) 사태가 국내 AI 산업의 걸림돌이 아니라 도약을 위한 디딤돌이 될 수 있도록 해야 한다"며 "다양한 이해관계자들이 공감하고 동의할 수 있는 구체적이고 합리적인 법·제도를 만들어야 한다"고 했다.
최은정 기자 [email protected]
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기