최근 ChatGPT와 같은 생성형AI가 악성코드 제작이나 해킹 등에 악용될 수 있음이 밝혀지면서 전세계적으로 정보 보안, 데이터 보안에 대한 관심이 더욱 높아지고 있다. 특히 디지털 초연결 시대가 가속화하고 각 산업 분야에 테크(Tech) 기술이 도입되면서, 단순한 예방 차원의 소극적 보안이 아니라 모든 사용자, 기기와 네트워크에 대해 신뢰하지 않는다는 적극적 보안 개념의 ‘제로트러스트(Zero Trust)’가 등장했다. 지난 7월 10일 과학기술정보통신부에서도 제로트러스트 보안을 국내 기관·기업에 적용하기 위해 ‘제로 트러스트 가이드라인 1.0’을 발표한 바 있다.
IAAE 국제인공지능&윤리협회(이사장 전창배)는 한국제로트러스트보안협회(회장 이무성)와 ‘인공지능 및 신기술 분야의 윤리와 제로트러스트 보안 실현을 위한 공동 사업 협약’을 체결했다고 1일 밝혔다.
이번 업무 협약을 통해 양 기관은 AI 윤리, 제로트러스트 등 상호 협력이 가능한 분야에서 ▲연구와 개발을 공동 진행하고, ▲세미나, 컨퍼런스, 대시민 행사 등 공동 개최 및 확산 활동, ▲인공지능 윤리와 제로트러스트 분야 전문가 양성 교육, ▲상호 보유한 네트워크와 지속적 정보 교류 등에 적극 협력키로 했다.
특히 양 기관은 최근 생성형AI 기술의 등장으로 높아지는 보안 이슈에 대응하고자, AI의 예측, 추론, 생성 기술을 이용하여 보안 위협을 신속히 분석 탐지하고, 자동 코드 생성 기술을 통해 반복적인 보안 작업을 자동화하는 등의 제로트러스트 구현 기술을 공동 개발하기로 합의했다.
한국제로트러스트보안협회는 우리나라 사이버보안의 패러다임을 경계형 보안에서 제로트러스트보안으로의 전환을 지원하기 위해 올해 7월 사단법인으로 창립된 비영리 민간단체다.
이무성 한국제로트러스트보안협회 회장은 "업무환경이 재택근무, 모빌리티, 클라우드로 전환됨에 따라 제로트러스트 보안이 대세로 자리매김하고 있으며, 우리나라도 정부가 최근 공시한 제로트러스트보안 가이드라인에 따라 사이버 보안체계를 전환하는 것이 필요하다“고 말했다.
이에 전창배 국제인공지능&윤리협회 이사장은 “인공지능 윤리에 가장 중요한 분야 중 하나가 바로 개인정보와 저작권 보호 분야다. 최근 생성형AI 기술이 발달하면서 AI학습용 데이터의 수집 과정에서 개인정보 침해, 저작권 데이터 침해 문제가 증가하고 있는데, 해결책으로 보안업계의 ‘제로트러스트’를 AI윤리에도 적용할 수 있다”며, “앞으로 양 기관이 적극 협력하여 AI 분야의 윤리와 보안 문제를 해결해 나가겠다”고 강조했다.