국가정보원이 11일 이달 내 챗GPT 등 생성형 인공지능(AI)기술에 대한 보안 가이드라인을 마련한다. 업무 등에 AI 기술을 활용하는 사례가 늘면서 보안 문제에 대한 우려가 커졌기 때문이다.
국정원은 지난 9일 ‘국가 사이버안보 민관 협의체 회의’를 열고 이달 중 전체 국가공공기관 및 지자체에 보안 가이드라인을 배포할 계획이라고 밝혔다.
국정원은 챗GPT 등 기술 활용 과정에서 △업무상 비밀·개인정보 유출 △가짜뉴스·비윤리적 자료 생성 등 기술 악용 우려가 제기돼 온 가운데 AI 기술을 통해 행정업무 효율화를 달성하려는 정부기관들을 지원하기 위해 전문가 의견을 청취하고 보안 가이드라인을 제정하게 됐다고 덧붙였다.
해에서도 챗GPT 관련 보안정책을 강화하는 추세가 나타나고 있다. 최근 미국과 유럽연합은 정부 차원에서 챗GPT 사용 시 부작용 방지를 위한 ‘AI 행동강령’ 제작에 착수했고, 이탈리아 정부는 ‘정보보호’ 명목으로 챗GPT 접속을 차단했다가 운영사의 보안조치 시행을 확인한 뒤 접속을 재개하기도 했다. 또한 국내외 민간 기업들도 사내 보안정책 강화에 나서고 있다.
이에 국정원은 지난 4월부터 국가보안기술연구소 및 학계 전문가와 합동으로 챗GPT 등 생성형 AI 기술 활용 보안 가이드라인 제정 준비에 착수했다. 가이드라인에는 △생성형 AI 기술 개요 및 보안위협 △안전한 AI 기술 사용 방안 △기관 정보화사업 보안대책 등의 내용이 담긴 것으로 알려졌다.
앞선 민관 협의체 회의에서 권태경 한국정보보호학회 AI보안연구회 부위원장도 “기술의 발전만큼 중요한 것이 관련 보안제도의 마련”이라며 “보안정책의 기틀 위에서 AI 기술 활용이 이루어져야 한다”고 강조했다.
국정원은 “국가기관에서 AI 기술 사용 시 민간기술 등을 활용한 정부 차원의 AI 모델을 행정업무망 내부에 자체 구축하는 형태가 돼야 한다”며 “앞으로 지속 등장하는 IT 신기술에 대한 보안대책을 적시 마련해 각급기관의 안전한 정보통신기술 활용을 지원할 방침”이라고 밝혔다.