[아이뉴스24 박진영 기자] "정부 부처간 AI 선점을 위해 AI 윤리 및 기준 제정 경쟁이 심화되고 있는데, AI활용 및 부작용 방지 등을 전담하는 부처가 지정될 필요가 있다."
14일 한국데이터법정책학회와 코리아스타트업포럼, 법무법인 린 공동으로 '이루다가 쏘아올린 데이터법과 AI 윤리 이슈와 과제'를 주제로 인공지능(AI) 챗봇 '이루다' 사태로 인해 개인정보 보호, AI 윤리 등 여러 논의가 진행됐다.
이날 행사에는 양천수 영남대학교 법학전문대학원 교수와 정경오 법무법인 린 파트너 변호사가 '이루다' 서비스의 법적 이슈와 AI윤리 문제 및 대안과 관련한 발제를 발표했다.
이성엽 고려대 기술경영전문대학원 교수를 좌장으로 이동진 서울대 법학전문대학원 교수, 문정욱 정보통신정책연구원 센터장, 백대용 법무법인 세종 변호사, 김병필 카이스트 기술경영학부 교수, 최성진 코리아스타트업포럼 대표, 구태언 법무법인 린 변호사, 이병남 개인정보보호위원회 개인정보정책과장 등이 패널로 참석한 토론이 진행됐다.
앞서 20대 여대생을 캐릭터로 한 대화형 AI 챗봇 '이루다'가 소수자 차별, 혐오 발언, 개인정보 침해 등의 문제를 드러내고 출시된 지 불과 20일 만인 지난 1월 12일 서비스를 중단했다. 정부는 개인정보 침해 여부 조사를 진행하고 있다. 개인정보 유출 피해를 주장하는 이용자들은 개발사 스캐터랩을 상대로 2억원의 손해배상 청구 소송을 제기했다.
◆ "AI 서비스 준비단계부터 개인정보법 검토해야"
AI 챗봇 이루다로 인해 촉발된 이슈는 크게 '개인정보 침해'와 'AI윤리' 이슈다.
개인정보 침해 측면에서 중요한 점은 개인정보 '동의' 여부다. AI 설계방식의 위험, 가명처리의 한계 등 여러 문제가 얽혀있다.
양천수 교수는 "개인정보 침해 이슈에서는 ▲민감정보 유무 ▲신규서비스 개발 등 추가적 이용 동의 ▲가명처리 성공 유무 등을 논의할 필요가 있다"고 밝혔다.
챗봇 이루다의 경우에도 관련 정보가 개인정보인지 유무를 일률적으로 판단하기 어렵다. 연애의 과학에서 수집한 카카오톡 대화 정보가 '민감정보'에 해당할 수 있기 때문. 민감정보에 해당된다면, 정보 활용 동의를 따로 받아야 한다.
또 신규서비스 개발에 대한 동의가 적절한지 여부도 관건이다. 연애의 과학에서 수집한 정보를 새로운 서비스 개발에 이용하기 위해서, 이용자로부터 관련 동의를 받아야 한다. 회사 측은 동의를 받았다고 주장하지만, '신규서비스'를 해석하는데 있어서는 '모호함'이 존재한다. 신규 서비스 범주에 AI챗봇 개발이 포함될 수 있는지, 이용자들이 예상 가능한 범주인지를 고려해야 한다는 지적이다.
가명처리가 성공적으로 이뤄졌는지도 따져야 한다. 추가정보 없이 특정 개인을 알아볼 수 없도록 처리하는 것을 '가명처리'다. 개인정보보호 특례가 도입되면서, 가명처리가 제대로 이뤄졌으면 법적 예외가 인정된다. 가명처리 요건 충족 여부를 파악하려면 종합적 검토가 필요하다. 이밖에 대화 발화자 뿐 아니라 다른 참여자 모두의 동의를 받았는지도 불명확하다는 문제도 추가된다.
이동진 교수는 "'신규서비스 개발'과 같은 추상적이고 모호한 설명만으로는 적법한 동의가 되기 어렵다"면서, "대화의 내용이 내밀할 수 있어 목적에 합치하는 이용이라고 주장하여 가명처리만으로 신규서비스 개발에 쓸 수 있을지도 상당히 의심스럽다"고 밝혔다.
다만, 가명처리 정보 사용이 동의가 필요없다는 주장도 제기됐다.
구태언 변호사는 "이미 가명처리된 정보를 사용했기에 개인정보처리 방식에 대한 동의를 구할 필요가 없다"면서, 신규 서비스 동의가 적절했는지 여부를 논의할 필요도 없다고 주장했다.
이어 "가명처리가 다소 부족한 부분이 있을수는 있으나 이로 인해 특정한 개인이 피해를 호소한 경우는 아직 없다. 침해여부는 정보주체가 판단해야할 문제고, 피해자가 없기에 가명처리를 하지 않았다고 보기 어렵다"고 말했다.
◆ AI 윤리 자율적 규제 강화…"규제보다 진흥 위한 정책 필요"
AI 윤리적 쟁점에서는 ▲편향성 ▲기술적 안전성 ▲프라이버시 침해 등을 다뤄야 한다. AI기술이 일상화되고 있는 가운데 이로 인한 윤리적 문제를 법률적 강제가 아닌 자율적 규제를 통해 해결해야 한다는 주장이다.
이루다 사태에서 사회적 논란이 된 차별, 혐오표현은 AI 알고리즘의 편향성으로 인해서다. 알고리즘 자체 문제일 수도, 투입되는 데이터의 문제일 수도 있다. 지난 2016년 마이크로소프트가 출시한 트위터 챗봇 '테이(Tay)'도 인종차별 논란으로 공개된 지 16시간 만에 서비스가 중단된 적이 있다.
또 AI를 활용하는 과정에서 보장돼야 하는 안전과 그 책임주체가 누구인지도 문제다. 예를 들어 자율주행자동차가 사고를 냈을 경우, 그 책임의 주체 여부를 결정하기 어려운 것과 마찬가지다. 이러한 윤리적 딜레마를 단순히 '최대다수 최대행복'이라는 공리주의 명제로만 쉽게 해결할 수는 없다는 것.
AI개발을 이유로 혹은 AI로부터 개인정보를 침해 받는 현상, 프라이버시 침해 문제가 있다. 다만, 지능화된 서비스가 증가할수록, 이용자들은 더 나은 서비스를 누리기 위해서 개인정보 활용을 스스로 허락해야 하는 '프라이버시 역설'에 부딪힐 수밖에 없다.
정경오 변호사는 "정부 부처간 AI 선점을 위해 AI 윤리 및 기준 제정 경쟁이 심화되고 있는데, AI활용 및 부작용 방지 등을 전담하는 부처가 지정될 필요가 있다"고 말했다. 이어 "AI기반 서비스∙플랫폼 사업자의 자율규제 및 탈규제 노력을 인정해주고, 규제보다는 진흥을 위한 정책이 필요한 시점"이라고 밝혔다.
백대용 변호사도 "정부가 어떤 법과 제도를 만든다고 하더라고 규제의 사각지대는 존재하기 마련"이라면서, "규제 패러다임 상생을 위해서는 정부 차원의 규제 강화보다는 민간 차원에서의 자율 규제 강화가 필요하다"고 말했다.
이와 관련 개인정보보호위원회는 개인정보법 개정안을 준비 중이다.
이병남 개인정보위 과장은 "인공지능 등 자동화된 의사결정에 대응하기 위해 정보 주체의 권리를 강화하는 방향으로 개보법 개정안을 준비 중"이라면서, "개정안에는 이용자의 거부권, 이의제기권, 소명 요구권 등을 담을 것이고, 조만간 인공지능을 포함한 표준화된 개인정보 처리방침을 공개할 예정"이라고 강조했다.
/박진영 기자([email protected])
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기