“갤럭시S24 카메라에 적용된 인공지능(AI) 모델은 5년 전 대비 28배나 늘었습니다. 여기에 뛰어난 신경망처리장치(NPU)와 빅데이터가 더해져 만들어진 ‘프로비주얼 엔진’으로 보다 자연스럽고 입체감 넘치는 사진을 제공합니다.”
조성대 삼성전자 MX사업부 비주얼 솔루션 팀장(부사장·사진)은 ‘갤럭시 언팩 2024’ 하루 뒤인 18일(현지 시간) 미국 실리콘밸리 삼성리서치아메리카(SRA)에서 열린 기자간담회에서 “갤럭시AI를 적용한 갤럭시S24는 촬영이 편리할 뿐 아니라 눈으로 보는 것 같이 자연스러운 사진을 제공한다”고 강조했다.
갤럭시S24는 통번역 뿐 아니라 카메라 촬영·편집에 AI를 대거 적용했다. 조 부사장은 “AI와 결합한 갤럭시S24의 모든 카메라 기능을 종합한 명칭이 바로 ‘프로비주얼 엔진’이라며 “이를 구현하기 위해서는 AI·NPU·데이터라는 3가지 요소가 결합돼야 한다”고 말했다.
삼성전자가 카메라에 AI를 첫 적용한 모델은 갤럭시S10이다. 당시 4개에 불과하던 AI 모델은 갤럭시S24에서는 112개로 늘었다. 이 기간 NPU 성능은 13배 개선됐다. AI 모델 개선을 위해 학습한 이미지 데이터는 4억 개를 넘어선다. 조 부사장은 “셔터를 누르는 순간부터 AI가 최적의 이미지를 인식하고 화질을 개선해 최종 결과물을 내놓는다”며 “NPU와 방향감지센서 데이터를 결합해 흔들림과 노이즈를 없애고 저조도 환경에서도 AI로 밝기를 높이는 등 다양한 기능이 적용됐다”고 설명했다.
렌즈와 센서도 진화했다. 갤럭시S24 센서 크기는 전작대비 1.6배 늘었고 물리적 흔들림방지(OIS) 각도도 40% 커졌다. 조 부사장은 “갤럭시S23보다 1.6배 많은 빛을 받아 더욱 밝은 사진을 찍을 수 있을 뿐만 아니라 야간에 렌즈 반사가 비치는 플레어 현상도 줄었다”고 했다.
전작의 광학 10배 줌 대신 5배 망원 렌즈가 탑재됐지만 화소수가 5배 늘어 이를 충분히 보상할 수 있다는 의견도 밝혔다. 조 부사장은 “가장 줌을 자주 사용하는 2~5배 구간 화질이 크게 개선됐고 10배 줌 환경에서도 기존대비 1.25배의 화소를 제공한다”며 “갤럭시S24의 물리적인 장점이 훨씬 크다”고 강조했다.
AI로 사진·영상 촬영이 지닌 시공간의 한계까지 극복하겠다는 포부도 밝혔다. 조 부사장은 “자체 개발한 보간기술로 일반적인 영상도 사후에 슬로우모션으로 재생할 수 있게 해 공간이 아닌 ‘시간의 줌’을 구현했다”며 “생성형 AI의 등장으로 기존에는 상상할 수 없던 아이디어들이 현실화되고 있는 만큼 앞으로도 새로운 솔루션과 기능을 대거 선보이겠다”고 했다.