[아이뉴스24 최상국 기자] 인공지능(AI)이라 불리는 기술이 일상에 스며드는 속도가 빨라짐에 따라 인공지능의 '신뢰성'에 대한 논의도 폭넓게 이루어지고 있다.
'인공지능이 예측 또는 판단한 결과를 믿을 수 있는가' 같은 기술적 견고성에 대한 질문에서부터 인공지능의 판단에 공정성을 부여할 수 있는지, 왜 그렇게 판단했는지를 설명할 수 있는지, 인공지능의 활용에 윤리적인 문제는 없는지 같은 복잡한 사회과학적 질문도 제기되고 있다.
이 때문에 인공지능을 연구개발하는 기업과 학계를 넘어서 OECD, 유네스코 같은 국제기구까지 나서서 인공지능을 개발하고 사용하기 위해 필요한 각종 원칙에 대한 선언, 가이드라인, 프레임워크를 잇달아 내놓고 있다.
인공지능의 신뢰성에 대한 논의가 이처럼 부산한 것은 기본적으로 지금까지의 어떤 기술보다도 인간사회에 미치는 인공지능의 파급력이 클 것으로 예측되기 때문이다. 인공지능 기술은 특정 영역에 머물지 않고 일상생활에서부터 학술, 기업, 공공 서비스에 이르기까지 그동안 인간을 대체하기 어려울 것이라고 생각했던 많은 영역으로 확산되고 있으며, 공정성과 신뢰성이 강하게 요구되는 분야에까지 진출하는 중이다.
앞으로 어디까지 갈 지, 얼마나 빨리 갈 지 가늠하기도 어렵다. 또한 연산과정을 설명하기 어려워 블랙박스로까지 불리는 '딥러닝' 알고리듬이 인공지능의 대세가 된 것도 '신뢰성' 논란과 무관하지 않다. 실제 기술과 상관없이 '인공지능'이라는 이름에 의해 빚어지는 오해와 편견, 마케팅 용어로 '인공지능'을 남발하는 기업의 상술도 문제다.
새로 나온 책 '신뢰할 수 있는 인공지능'은 인공지능의 신뢰 문제에 관해 그동안 전세계적으로 논의돼 온 개념들과 이를 해결하기 위한 인공지능 연구 과정을 종합 정리한 책이다. 그동안 논의돼 온 인공지능에 관한 여러 원칙을 ‘신뢰’라는 키워드로 묶고 이를 '공정성', '윤리성', '투명성과 설명 가능성', '견고성과 안전성' 등으로 나누어 정리했다.
특히 '인공지능을 사회에서 받아들이기 위한 조건'이라는 부제가 표현하듯이 인공지능을 개발하는 기업(연구자)과 인공지능을 받아들이는 사회의 시각을 다학제적 관점에서 동시에 다루고 있는 책이다.
저자는 머리말에서 "인공지능이 인류에게 유익하게 사용돼야 한다는 원칙은 일찍부터 논의돼 왔다. 하지만 이런 원칙을 어떻게 체계적으로 만들 것인가를 협의하기 시작한 것은 최근 몇 년에 불과하다. 인공지능 윤리 원칙, 가이드라인, 프레임워크 등은 현재 80여개가 넘는다. 이런 원칙이 실제로 작동하기 위해서는 '선언적 원칙'을 정하는 것만으로는 부족하다. 인공지능 연구자들도 이제 원칙은 그만 얘기하고 실제 적용할 기술을 개발하자는 분위기다"라고 전한다.
그동안의 선언적 원칙을 실제 기술로 구현하는 과정을 통해 '신뢰성'의 의미를 기술적·사회적으로 구체화함으로써 인공지능 신뢰성 논의를 한 차원 진전시키자는 뜻으로 이해된다. 책에서는 인공지능 기술기업이 오로지 기술적 관점에서만 '인공지능'을 바라보고 출시한 '상품'들이 사회적으로 논란을 낳은 다양한 사례들 외에도, 사회적으로는 전문영역의 바깥에서 인공지능에 대한 기술적 이해없이 시도되고 있는 규제와 가치판단이 본질을 벗어날 위험성도 함께 지적한다. 인공지능 산업의 성장과 인공지능 사회의 발전을 함께 도모하기 위해서는 인공지능의 신뢰성에 대한 다학제적 논의와 기술적 구현이 중요함을 강조한 것이다.
저자는 "인공지능 연구자들이 알고리듬, 모델, 시스템에 관한 연구외에도 인공지능의 발전을 위한 다양한 연구과제가 있다는 것을 알게 되길 기대"하는 한편 "법학자, 경제학자, 인문학자, 사회학자들이 쉽게 이야기하는 이슈와 기능이 기술적으로 얼마나 어려운 과제인지, 문제해결을 위해 어떤 기술이 필요한지를 이해하고 기술 전문가와 토의를 할 때 참고가 되기를 바란다"고 했다. "나아가 정책 입안자들이 사회에서 인공지능을 더 의미있고 쓸모 있게 사용하기 위해서 앞으로 보완하고 추가로 개발할 기술이 무엇인지 논의하게 되기를 희망한다"고 전했다.
이 책은 총 5장으로 구성돼 있다. 우선 1장에서는 왜 인공지능의 ‘신뢰성’이 중요한 이슈인지, 학계와 산업계가 신뢰성과 관련해서 어떤 노력을 하는지, 우리가 주목해야 할 주요 원칙과 가이드라인은 무엇인지, 해외 주요 기업과 국내 기업의 접근 방식과 현황은 어떤지 다루고 있다.
2장에서는 지난 몇 년 동안 사회적으로 가장 예민한 이슈가 된 ‘공정성’ 문제를 다루고 있다. 얼굴인식, 언어처리, 신용평가, 화상면접 등에서 공정성 논란 사례들과 기업들이 이를 완화하기 위해 개발한 다양한 도구와 기술을 소개한다.
3장에서는 인공지능의 ‘윤리성’ 문제를 다루고 있다. 이는 가장 오래된 주제이며 접근하기 쉽지 않은 문제이다. 어떤 것이 윤리적으로 올바른 판단인가를 누가 어떻게 정할 것인가와 함께 과연 인공지능이 도덕적 판단을 하는 개체가 되는 것이 맞는가를 동시에 질문해야 하기 때문이다. '인공지능 윤리' 분야에는 다양한 차원의 이슈와 여러 연구 결과가 있다. 앞으로 무슨 연구를 더 해야 하는가를 함께 고민해보고자 한다.
4장에서는 인공지능의 투명성과 설명가능성을 다룬다. 여기에서의 투명성은 기업에서 주요 의사결정의 투명성이나 정부 또는 법 집행기관과의 관계에서의 투명성과는 조금 다른 개념이다. 투명성에서 가장 문제시되는 설명가능성은 우리가 인공지능을 사용하는 영역에 따라 필수적일 수도 있고 아닐 수도 있다. 하지만 많은 사람이 직접 접하는 금융, 채용, 공공서비스 영역에서는 매우 중요한 기능이다.
5장에서 다룬 ‘견고성과 안전성’은 우리가 사용하는 인공지능이 가진 취약성이다. 인공지능 시스템이 아주 간단한 속임수로도 잘못된 판단을 할 수 있다는 것이 알려지면서 사람의 안전과 관계되는 영역에서는 매우 민감한 주제가 됐다. 인공지능의 판단을 어디까지 믿을 수 있으며 사용자들의 안전과 시스템 보안을 위해 어떤 연구가 이루어지고 있는지 소개하고 있다.
/최상국 기자([email protected])
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기