[아이뉴스24 박진영 기자] 국내에서 챗GPT 등 생성형 인공지능(AI) 사용을 제한하려는 움직임이 거세지고 있다. 이처럼 개인정보 유출 등 생성형AI 부작용 우려가 커지자 본격적인 규제 정책 논의가 시작되는 분위기다.
6일 업계에 따르면, 국가정보원은 각 정부 부처 공무원에게 오픈AI의 '챗GPT' 이용할 때 주의사항을 안내했다. 국정원은 이달 초 '챗GPT 등 언어모델 AI 활용 시 보안 유의사항 안내'라는 제목의 공문에서 공개된 정보에 한해 서비스를 이용하길 당부했다.
국정원은 공문을 통해 "최근 챗GPT 등 AI 기술 업무 활용 증가로 인해 AI 기술 업무 활용 증가로 정보 수집과 데이터 유출 등 보안 우려가 지속해서 제기되고 있다"면서 "챗GPT나 GPT-4 응용프로그램 인터페이스(API)를 활용하려면 국가정보원의 사전 보안성 검토를 받아야 한다"고 전했다.
최근 삼성전자는 사내 정보 유출 등을 막기 위해 직원들의 챗GPT 사용을 금지하기로 했다. 삼성전자의 모바일·가전 등을 담당하는 DX부문은 최근 임직원에게 사내 네트워크나 회사 소유 단말기를 통한 챗GPT 등 생성형 AI 사용을 제한한다고 공지한 것이다.
앞서 지난 3월 삼성전자의 반도체 부문 한 엔지니어가 실수로 내부 소스코드를 챗GPT에 업로드했고, 해당 코드가 외부에 유출된 것으로 알려졌다. 소스코드는 프로그램 개발 과정 및 틀을 담고 있는 회사의 중요 기밀 정보다. 이에 삼성전자 반도체사업을 담당하는 DS 부문은 챗GPT 사용 글자수를 제한했다.
또 SK하이닉스도 지난 2월 사내망으로 챗GPT 사용을 원칙적으로 금지하고 있다. 다만, 챗GPT 사용이 필요한 경우 내부 보안성 검토를 통해 회사 승인을 받도록 하고 있다.
포스코는 내부 인트라넷을 통해서만 챗GPT에 접속할 수 있도록 했고, 사내 협업 플랫폼 팀즈에 챗GPT 기능을 공식 도입하는 등 보안성을 강화하고 AI를 통한 업무 생산성을 높이는 방식을 택했다.
이 가운데 국내 개인정보 보호 거버넌스 역할을 담당하는 개인정보보호위원회는 다음달까지 AI 데이터 수집 과정에서 지켜야 할 개인정보 보호원칙 및 처리기준을 제시할 방침이다. 이는 챗GPT와 같은 정부 전용 초거대AI 도입을 계획하고 있는 만큼 AI 기술 활용의 개인정보 보호 원칙을 명확히 하겠다는 의도다.
고학수 개인정보위 위원장은 최근 오픈AI 챗GPT의 결제정보 유출과 관련해 "현재 유럽연합(EU) 개인정보 감독기관이 적극적으로 관심을 표하고 있는데, 개인정보위도 해외 기관과의 소통을 통해 상황을 면밀히 살펴보고 있다"고 전했다. 이어 "AI 기술 상용화가 빠르게 이뤄지고 있기 때문에 이를 규정만으로 규율할 수 없고, 원칙 중심의 규제 정책 방향성이 필요하다"고 전했다.
/박진영 기자([email protected])
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기