정부의 독자 인공지능(AI) 파운데이션 모델 사업 선정을 둘러싸고 기업 간 논란이 커지는 가운데, 일부 인공지능 연구 전문가들이 “해외 모델을 베낀 것”이라는 일부 비판에 대해 기술적으로 맞지 않는 주장이라고 반박했다.
현재 정부는 이달 15일 첫 번째 탈락팀 결정을 목표로 5개 컨소시엄에 대한 성능 검사를 진행 중이다. 하지만 최근 독자 AI 정예팀 중 한 곳인 네이버가 중국 알리바바 큐웬(Qwen) 모델과 동일한 숫자 처리 접근 방법을 적용했다는 주장이 일각에서 제기되면서 의견이 엇갈리고 있다. 단순한 성능 비교를 넘어 ‘독자 개발’의 범위를 어디까지로 정의할 것인지에 대한 정부의 판단이 결과에 큰 영향을 미칠 것이란 전망이다. 이에 대해 일부 전문가들은 ‘프롬 스크래치’의 의미를 모델 구조까지 포함하는 식으로 지나치게 좁게 해석할 경우, 기술적 현실과 어긋날 뿐 아니라 국내 AI 산업 발전을 저해할 수 있다고 지적하고 있다.
임성빈 고려대 통계학과 교수는 최근 사이언스 미디어센터를 통해 제시한 전문가 의견을 통해 “모델 구조 측면에서 독자성을 취해야 한다는 의견은 딥러닝 모델 연구 역사와 기술 트렌드와 결이 맞지 않는 주장”이라고 말했다. 그는 “같은 트랜스포머 모델 구조라 할지라도 구현 방법과 엔지니어링 실력에 따라 성능이 천차만별이며, 현실적으로 엔비디아 GPU는 트랜스포머 모델 구조에 특화돼 최적화 되고 있다”고 설명했다. 이같은 의견은 중국이나 미국 AI 모델과 비슷한 구조를 사용했다는 이유로 “‘프롬 스크래치’라고 볼 수 없다”는 일부의 주장에 대한 반박이다. 임 교수에 다르면 AI 연구에서 말하는 ‘프롬 스크래치’란 모델 구조를 새로 만들었다는 뜻이 아니라 다른 AI의 가중치(이미 학습된 파라미터)를 가져오지 않고 학습했다는 의미다. 현재 전 세계 대부분의 AI는 트랜스포머라는 공통 구조를 사용하는데 이는 특정 국가의 기술이 아니라 물리학에서 미적분을 쓰듯 모든 AI 연구자들이 사용하는 기본 도구로, 같은 트랜스포머를 사용한다고 해서 모델이 같아지는 것은 아니라는 설명이다. 다만 임 교수는 “저작권 이슈가 걸린 모델을 활용하는 전략은 반드시 피해야 한다”고 주장했다. 그는 “(이 경우) 국제적으로 큰 이슈가 되거니와 독자 파운데이션 모델 프로젝트를 무(無)로 돌릴 수 있다”며 “'프롬 스크래치'로 미세조정 단계에서 빅테크 회사들의 LLM 을 사용하는 전략은 반드시 피해야 한다”고 덧붙였다.
윤세영 KAIST 김재철 AI 대학원 교수 역시 “'프롬 스크래치'의 정의를 지나치게 엄밀하게 규정하려는 시도나 그러한 정의를 기준으로 개발을 진행 중인 팀들을 성급하게 비난하는 상황으로 논의가 흐르지 않기를 바란다”고 지적했다. 그는 “현재 ‘프롬 스크래치’ 정의를 둘러싼 논의가 지속적으로 제기되는 이유는 해당 개념에 대해 사람마다 상정하는 범위와 기준이 다르기 때문”이라며 “가장 중요한 가치는 투명성”이라며 “어떤 방식과 절차를 통해 모델을 개발했는지를 명확하고 투명하게 공개하고 그 과정에 허위가 없음을 확인하는 것이 무엇보다 중요하다”고 덧붙였다.