• 글자 크기 설정

    • 보통

    • 크게

    • 아주 크게

개인정보 활용은 ‘설계’의 문제

개인정보보호위원회 송경희 위원장

수정 2026-01-29 22:14

입력 2026-01-29 18:25

지면 34면
송경희 개인정보보호위원장
송경희 개인정보보호위원장

오랫동안 데이터 정책은 보호와 활용이라는 이분법 속에 놓여 있었다. 시민사회에는 활용이 감시로 보였고, 산업계에는 보호가 혁신의 족쇄로 인식됐다. 그러나 생성형 인공지능(AI)이 정책을 분석하고 자율주행차가 도심을 달리며 의료 AI가 의사가 놓친 질병의 징후를 찾아내는 시대에 데이터는 국가의 경쟁력과 국민의 생존을 좌우하는 핵심 전략자산이 됐다. 이제 데이터를 금고 속에 가두는 방식의 보호는 현실적이지도, 바람직하지도 않다.

핵심은 어떤 통제 구조 아래에서 어떻게 쓸 것인가이다. 활용 범위가 넓어질수록 중요한 것은 신뢰다. 국민이 자신의 정보가 안전하게 처리된다는 확신을 할 때에만 데이터는 의료와 교통·AI 혁신으로 이어질 수 있다. 보호와 활용은 대립하는 개념이 아니라 설계를 통해 함께 달성해야 할 목표다.

이 지점에서 우리는 AI 학습의 구조적 딜레마와 마주한다. 개인정보보호법의 핵심 원칙은 동의이며 이는 개인의 자기결정권을 지켜온 강력한 장치였다. 그러나 수천억 개의 파라미터를 가진 거대언어모델이나 자율주행 AI를 학습시켜야 하는 현실에서 이 원칙은 물리적 한계에 부딪힌다. 도로 주행 영상을 학습하기 위해 모든 보행자에게 동의를 받는 것은 불가능하다.

이를 해결하기 위해 논의되는 것이 AI 특례다. 이는 무차별적 허용이 아니다. 공익 목적이 명확하고 가명·익명 처리만으로는 기술 개발이 불가능하며 강화된 안전조치와 통제 구조가 확보된 경우에 한해 제한적으로 원본 활용을 허용하는 제도다. 개인정보위의 사전 심의·의결, 위험 평가, 물리적·기술적 통제, 강력한 사후 제재가 전제된다.

보이스피싱 대응은 안전한 활용의 대표적 사례다. 용의자의 음성 패턴을 학습해야 피싱 탐지를 잘할 수 있지만 용의자에게 사전 동의를 받는 것은 현실적으로 어려웠다. 따라서 규제 샌드박스를 통해 통신사가 범죄 의심 통화 음성을 엄격히 통제된 환경에서 AI 학습에 활용할 수 있도록 한 결과 지난해 한 해에만 700억 원이 넘는 피해를 예방할 수 있었다.

법적 통제는 기술과 결합할 때 완성도가 높아진다. 프라이버시 강화 기술(PET)은 데이터를 숨기는 기술이 아니라 데이터의 가치를 유지한 채 개인 식별 위험을 구조적으로 제거하는 기술이다. 암호화된 상태에서 연산하는 동형암호, 실제 데이터를 대체하는 합성데이터, 데이터를 이동시키지 않고 학습하는 연합학습이 대표적이다. 미국 보스턴시는 안전한 다자간 연산 기술을 활용해 기업의 급여 데이터를 노출하지 않고 임금 격차를 분석했고 그 결과 반대하던 다수 기업의 자발적 참여와 정책 성과를 이끌어냈다. 기술적 신뢰가 사회적 신뢰로 이어진 사례다.

제도 역시 현장에서 작동해야 의미가 있다. 공공기관의 데이터 활용을 촉진하기 위해 가명정보 활용 원스톱 서비스를 지원하고 법적 불확실성을 줄이기 위해 비조치의견서, 사전 적정성 제도를 운영하고 있다. 그 결과 하나의 명확한 유권해석을 통해 사장될 뻔한 의료 데이터를 연구와 혁신으로 되살린 사례도 있다.

AI 경쟁력의 핵심은 데이터의 양이 아니라 신뢰 속에서 활용할 수 있는 데이터 생태계의 수준이다. 국민이 납득할 수 없는 활용은 지속할 수 없다. 개인정보 활용은 허용의 문제가 아니라 설계의 문제다. 그리고 그 설계의 기준은 언제나 국민의 신뢰여야 한다.

이 기사를 추천합니다.

ⓒ 서울경제신문, 무단 전재-재배포, AI 학습 및 활용 금지

광고삭제
AD