산업 IT

챗GPT 정보 유출 우려에…정부 "비공개 자료 입력 유의"

국정원, 전 부처에 보안 유의사항 안내

이미지투데이이미지투데이




정부가 공직 사회에 챗GPT 등 생성형 인공지능(AI) 사용 시 민감 정보를 입력하지 말라고 당부했다.



3일 정보기술(IT) 업계에 따르면 지난달 말 국가정보원은 전 부처에 챗GPT 등 언어모델 AI 활용 시 보안 유의 사항을 안내했다.

관련기사



국정원은 개인정보 및 비공개 업무자료 등 민감정보를 입력하면 정보가 유출될 수 있기 때문에 보안에 유의해 공개정보 위주로 사용하라고 당부했다. 또 'GPT API' 도입 등 대형 언어모델 기반의 AI 기술을 활용한 정보화 사업을 추진할 때 국정원의 사전 보안성 검토를 준수해야 한다고 강조했다.

업계에서도 챗GPT 활용으로 인한 정보 유출을 경계하고 있다. 삼성전자는 지난달 28일 디바이스경험(DX) 부문 임직원을 대상으로 사내 챗GPT 등 생성형 AI 사용 정책과 관련해 이달부터 사내 PC를 통한 생성형 AI 사용을 일시적으로 제한한다고 공지했다.

정부와 민간 기업은 챗GPT 등 생성형 AI 활용 시 정보 유출을 우려하고 있다. 이용자가 AI 챗봇에 입력한 대화 내용이 운영사로 전송되기 때문이다. 운영사가 정보를 공개하지 않는다고 해도 해킹이나 오류 등으로 노출될 가능성도 있다. 3월 오픈AI는 오류가 발생한 9시간 동안 유료 계정인 '챗GPT 플러스'를 사용한 회원 중 1.2%의 이름, 이메일 주소, 청구 주소, 신용카드의 마지막 4자리와 유효기간 등 결제 관련 정보가 의도치 않게 공개됐다고 밝히기도 했다. 이탈리아 당국은 3월 개인정보 보호를 이유로 자국 내 챗GPT 접속을 일시 차단하기도 했다.


김성태 기자
<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>




더보기
더보기





top버튼
팝업창 닫기
글자크기 설정
팝업창 닫기
공유하기