산업 IT

오픈소스 AI, 악용 막을 안전장치가 없다

◆글로벌社 5곳 안전성평가 '낙제'

美 FLI 보고서…평균 1.08점

폐쇄형 모델의 절반수준 그쳐

다운로드 1위 알리바바 '꼴찌'

"韓도 AI기본법 실효성 확보를"

딥시크. 연합뉴스딥시크. 연합뉴스




오픈소스(개방형) 인공지능(AI) 모델이 빠르게 확산 중인 가운데 오픈 소스를 악용한 딥페이크 생성이나 개인정보 침해, 불법 무기 개발 등에 대한 우려가 덩달아 커지고 있다. 오픈소스 모델의 악용을 막을 안전장치 마련이 필요하다는 목소리가 AI 산업계 및 학계 안팎에서 커지고 있다.







13일 미국 비영리단체 미래생명연구소(FLI)가 발간한 ‘AI 안전성 지수’ 보고서에 따르면 미국 xAI와 메타, 중국 딥시크·지푸AI·알리바바 등 글로벌 오픈소스 모델 개발사 5곳의 안전성 점수는 지난해 말 기준 평균 1.08점으로 오픈AI·앤트로픽·구글 딥마인드 등 폐쇄형 모델 개발사 3곳 평균(2.35점)에 크게 뒤처지는 것으로 나타났다. 알리바바가 최저인 0.98점을 받았고 xAI도 1.17점에 그쳤다.

관련기사



FLI는 2023년 xAI 창업자인 일론 머스크 테슬라 최고경영자(CEO)를 포함한 유명 인사 1000여명의 서명을 받아 당시 최신 모델 ‘GPT4’ 개발을 6개월 간 중단해야 한다는 공개서한을 작성하는 등 AI 안전 분야에서 글로벌 협력을 추진해왔다. 활동의 일환으로 반기마다 주요 기업 대상으로 위험 평가, 현재 피해, 안전 프레임워크, 거버넌스(지배구조), 정보 공유 등 35가지 지표를 종합한 안전성 점수를 매겨 발표하고 있다.

FLI는 이번 보고서에서 오픈소스와 폐쇄형 모델 개발사를 따로 구분하지 않았지만 두 진영 간 점수 차가 눈에 띄게 확인된 것이다. 일례로 그록1(xAI), 라마4(메타), R1(딥시크), GLM4.6(지푸AI), 큐웬3(알리바바) 등 오픈소스 모델들은 공통적으로 ‘파인튜닝(미세조정)으로부터의 안전장치 보호’ 항목에서 “조작 방지장치가 없다”는 평가를 받았다.

업계에서도 비슷한 지적이 제기되고 있다. 오픈소스 모델은 외부 개발자에게 소스코드를 개방해 생태계를 넓히는 데 유리하다는 장점에 xAI와 메타, 중국 업체들이 추격 전략으로 채택했지만 대신 모델이 임의로 변형될 수 있어 악용 우려는 더 크다. 마이크로소프트(MS)도 전날 ‘AI 확산 보고서’를 통해 “오픈 모델이 빠르게 확산되면서 상대적으로 감독이나 통제가 어려운 구조상 AI의 안전 기준과 관리 체계에 대한 논의 필요성도 함께 커지고 있다”고 분석했다.

최근 그록 논란을 계기로 전 세계적으로 AI 악용에 대한 우려가 커지는 상황이다. 그록이 아동의 성적 이미지를 생성한다는 사실이 알려지자 인도네시아 정부는 서비스 접속을 차단했고 영국 규제당국도 12일(현지 시간) 위법 여부를 따지기 위한 조사에 착수했다. 중국 주도의 오픈소스 모델 확산과 맞물려 이 같은 우려도 커질 것으로 전망된다. 외신에 따르면 알리바바 모델 큐웬은 개발자 커뮤니티 ‘허깅페이스’에서 이달 초까지 누적 다운로드 7억 건을 돌파하며 주요 모델 중 압도적 1위를 차지했다. 한국도 국가 대표 AI 모델인 ‘독자 AI 파운데이션 모델’을 중심으로 오픈소스 전략이 확산되는 추세다.

최경진 한국AI법학회장(가천대 법학과 교수)은 “오픈소스 모델의 문제는 신뢰성이 담보되지 않는다는 것”이라며 “이를 보완하려면 리눅스 같은 성공적 오픈소스 소프트웨어(SW)처럼 다수가 공동으로 안전성을 검증해서 발전시켜 나갈 수 있는 체계가 필요하다”고 말했다. 과학기술정보통신부는 이와 관련해 ‘고영향 AI’ 규제를 담은 ‘AI 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’을 22일 시행한다. 최 회장은 다만 “법 시행이 임박했지만 규제 기준이 여전히 추상적”이라며 “시행 후에도 민간 참여로 기준을 구체화해나가야만 법 실효성을 살릴 수 있다”고 했다.


김윤수 기자
<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>









top버튼
팝업창 닫기
글자크기 설정
팝업창 닫기
공유하기