[아이뉴스24 김혜경 기자] 생성형 인공지능(AI) '챗GPT' 활용이 늘어나면서 AI 기술의 부정적인 영향을 우려하는 목소리도 커지고 있다. 결제 정보가 유출되거나 악성코드 제작 등 오남용 사례가 잦아지고 있어서다. 결제 정보 유출건과 관련해서는 개인정보위원회는 예의주시하는 등 파장이 커지고 있다.
◆"구독자 1.2% 결제정보 노출"…개인정보 유출 사고일까
28일 챗GPT 개발사인 오픈AI에 따르면 유료 버전 구독자 약 1.2%의 결제 관련 정보가 노출된 것으로 나타났다. 최근 일부 이용자를 중심으로 본인 계정으로 접속한 웹페이지에서 다른 이용자의 이메일 등 구독 정보와 채팅 제목을 봤다는 주장이 제기된 바 있다.
오픈 AI는 홈페이지를 통해 "지난 20일(태평양 표준시간) 챗GPT를 오프라인으로 전환하기 전 몇 시간 동안 일부 사용자가 다른 활성 사용자의 이름과 이메일, 주소, 신용카드 번호의 마지막 네 자리, 신용카드 만료일을 볼 수 있었다"고 설명했다.
이어 "다른 이용자의 결제정보에 접근할 수 있었던 경우는 이날 오전 1~10시 약 9시간 동안 전송된 가입 확인 이메일을 열람하거나 '구독 관리'를 클릭한 경우"라며 "이전에도 이 같은 문제가 발생했을 수도 있지만 아직 확인된 사례는 없다"고 덧붙였다.
오픈AI 측이 자체 조사에 착수한 결과 챗GPT 오픈소스 라이브러리 버그 문제로 파악됐다. 라이브러리란 여러 사람이 재사용할 수 있도록 미리 작성된 코드 모음을 뜻한다. 개발사는 문제점을 수정했으며, 결제정보 노출 등 영향을 받은 이용자에게는 별도 통지했다고 전했다.
이번 사건을 개인정보 유출 사고로 규정하고 피해 조사 등 후속 조치가 이뤄져야 한다는 견해도 있다. 염흥렬 순천향대 정보보호학과 교수는 "특정 이용자의 결제 관련 정보가 다른 이용자에게 노출됐다는 점을 미뤄봤을 때 접근 통제가 제대로 이뤄지지 않았을 가능성도 있다"며 "개인정보 유출로 판단되므로 개발사가 보호 조치를 강화해야 할 뿐만 아니라 경우에 따라 개인정보 보호 당국의 적절한 처분이 필요하다"고 지적했다.
만약 국내 이용자가 포함됐을 경우 개인정보보호위원회가 진상 파악에 나서야 한다는 것이 염 교수의 설명이다.
개인정보위는 상황을 예의주시하고 있다. 개인정보위 관계자는 "이번 사건에 영향을 받은 국내 이용자가 있는지 여부는 아직 파악되지 않은 상황"이라며 "자국법 적용을 받는 이용자의 피해 사례가 있어야 다음 단계의 접근이 가능한데 현재는 내부적으로 사실관계를 확인하고 있는 정도"라고 말했다.
◆챗GPT 탈옥 시도…"유도 질문으로 안전장치 무력화"
챗GPT 탈옥을 시도하는 이용자도 늘어나고 있다. 한 다크웹 홍보 사이트에서는 특정 질문을 대화창에 붙여넣으면 챗GPT와 상식을 벗어난 대화도 가능하다고 주장하며, 구체적인 방식을 적고 있다. 챗GPT 탈옥이란 개발사가 만들어둔 일종의 안전장치를 무력화하는 것이다.
국내 AI 전문가는 "1단계 무작위 생성학습에 이어 2단계 강화학습을 적용해 사회 통념에 어긋나는 답변을 하지 않도록 개발됐다"며 "챗GPT 성공 이유는 강화학습 덕분"이라고 설명했다.
실제 탈옥에 성공할 시 그동안 다른 AI 챗봇에서 문제가 됐던 차별‧혐오적인 대화가 가능해진다는 의미다. 이 전문가는 "인간이 주도하는 강화학습 특성상 모든 사례를 다룬다는 것은 힘든 것이 현실"이라며 "어떻게 질문을 유도하는지 여부에 따라 답변은 달라질 수밖에 없다"고 했다.
일부 해커들은 챗GPT를 이용한 악성코드 제작에도 관심을 보이고 있는 것으로 나타났다. 한 해킹포럼에는 '챗GPT-멀웨어의 이점'이라는 글이 게재되기도 했다.
멀웨어란 악성 소프트웨어로 악성코드를 뜻한다. 이 글을 올린 해커는 멀웨어 변종과 기법을 재현하기 위해 챗GPT를 실험하고 있다고 주장했다. 글로벌 보안기업 체크포인트는 "일부 구문이 수정될 경우 코드가 랜섬웨어로 바뀌는 것으로 확인됐다"며 "초보 수준의 해커들에게 챗GPT를 악용할 수 있는 실제 예제를 보여주는 것"이라고 전했다.
보안기업 노드VPN에 따르면 다크웹에 올라오는 게시물 중 챗봇 관련 문의는 올해 1월 120건에서 2월 870건으로 집계돼 무려 625%나 급증했다. 게시물 대부분은 ▲챗GPT 탈옥 방법 ▲챗GPT 멀웨어 ▲피싱 도구로 챗GPT 활용 등이다.
◆ "AI 오작동 통제 가능한 거버넌스 대책 서둘러 마련해야"
염흥렬 교수는 "AI 학습 데이터 일부에 개인정보가 포함됐을 경우 AI가 개인정보를 보유하고 있다가 다른 이용자가 질문을 통해 요청하는 경우 공유하는 사례가 발생할 수 있다"며 "학습 단계에서 개인정보가 포함되지 않도록 제대로 된 대책을 마련해야 한다"고 말했다.
최근 불거진 논란을 예방하기 위해선 AI 오작동을 예방하는 거버넌스를 구축하고, 저작권 논란을 해결해야 한다는 의견도 나왔다.
박지환 씽크포비엘 대표는 "공학적 관점에서 볼 때 AI 관련 사고는 예측하지 못한 AI의 오작동을 예방하거나 제어하지 못하기 때문에 발생한다"며 "모델‧소프트웨어 설계자와 데이터 관리자, 법률 검토자, 서비스 관리자 등이 AI 서비스의 전체 생명주기를 통제할 수 있도록 해야 한다"고 말했다.
김형중 호서대 디지털기술경영학과 석좌교수는 "법적 해결은 시간이 많이 소요되므로 그동안 이용자 교육을 강화할 수 있는 사회적 논의가 필요하다"며 "생성형 AI 저작권 문제에 대한 논란을 해결하려는 작업도 병행해야 할 것"이라고 말했다.
/김혜경 기자([email protected])
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기