국가정보원이 챗GPT 등 생성형 AI기술 활용 과정에서 발생할 수 있는 보안 문제를 사전 예방하기 위한 보안 가이드라인을 마련해 이달 중에 배표한다.
11일 국정원에 따르면 지난 9일 관련 분야 산학연 전문가 의견 청취를 위한 ‘국가 사이버안보 민관협의체 회의’를 개최했다.
이날 회의는 국정원이 추진하고 있는 보안 가이드라인 제정안에 대한 전문가 의견을 청취하기 위한 자리다. 이는 최근 미국과 유럽연합이 정부차원에서 챗GPT 사용시 부작용 방지를 위한 ‘AI 행동강령’ 제작하거나 이탈리아 정부는 ‘정보보호’ 명목으로 챗GPT 접속을 차단했다가 운영사의 보안조치 시행을 확인한 뒤 접속을 재개 등 국제 추세에 보조를 맞추려는 일환이다.
회의에는 ‘국가 사이버안보 민관협의체 소속 AI기술 및 정보보안 전문가를 비롯해 행정안전부와 교육부 등 각 부처 정보보안 담당자 등 60여명이 참여했다. 권태경 한국정보보호학회 AI보안연구회 부위원장(연세대 교수)은 “기술의 발전만큼 중요한 것이 관련 보안제도의 마련”이라며 “보안정책의 기틀 위에서 AI기술 활용이 이루어져야 한다”고 했다. 국정원 측도 “국가기관에서 AI 기술 사용시 민간기술 등을 활용해 정부 차원 AI모델을 행정업무망 내부에 자체 구축하는 형태가 되어야 한다”며 정부기관들의 AI시스템 구축시 고려사항을 제시했다.
국정원은 AI기술을 통해 정부기관들이 행정업무 효율화를 달성하도록 지난 4월부터 국가보안기술연구소 및 학계 전문가 합동으로 ‘챗GPT 등 생성형 AI 기술 활용 보안 가이드라인’ 제정 착수에 시작했다. 이번에 제정되는 가이드라인)에는 △생성형 AI 기술 개요 및 보안위협 △안전한 AI 기술 사용 방안 △기관 정보화사업 보안대책 등의 내용이 담길 것으로 알려졌다.
국정원 관계자는 “이날 논의된 내용과 기관별 애로사항을 반영해 이달중 전체 국가공공기관 및 지자체에 보안 가이드라인을 배포할 계획”이며 “앞으로 지속 등장하는 IT 신기술에 대한 보안대책을 적시 마련해 각급기관의 안전한 정보통신기술 활용을 지원할 방침”이라고 밝혔다.