칼럼 67
  • 대한민국에서 검찰개혁은 미완이다. 권력기관 개혁을 이야기할 때마다 검찰이 우선적으로 거론되었지만, 그 실상은 절반에 불과하다. 검찰은 수사와 기소권을 가진 한 축이지만, 그 결과를 판단하는 법원 역시 사법권력의 또 다른 축이다. 검찰만 변화한다고 해서, 사법 구조 전체가 새롭게 세워지는 것은 아니다. 바로 이 지점에서 최근 이재명 더불어민주당 후보를 둘러싼 대법원의 유죄 취지 파기환송 결정을 바라볼 필요가 있다. 민주당은 무죄를 기대했지만, 이는 지나치게 나이브했다. 현실은 그렇게 단순하지 않다. 만약 검찰개혁이 실질적으로 이뤄진다면, 그 다음 개혁의 방향은 어디로 향할까. 법원이다. 검찰 권력이 줄어들면, 사법부 권력에 대한 문제 제기는 자연스러운 수순이 된다. 판결은 정치적 이해관계와 무관해야 한다는 이상론은 누구나 동의하지만, 현실에서 법원이 권력기관의 일부로 작동해온 역사적 경험은 무시할 수 없다. 대한민국의 사법부는 오랜 기간 동안 정권의 변화에 맞춰 온건하게, 때로는 은밀하게 권력의 흐름에 편승해왔다. 이 상황에서 법원이 개혁의 칼날이 자신을 향할 가능성을 모른 척 할 수 있을까. 법원은 검찰개혁 이후 ‘개혁의 다음 타깃’이 될 것을 누구보다 명확히 인식하고 있다. 그리고 자신을 방어하기 위한 움직임을 정치적, 제도적 차원에서 가동하기 시작했다. 이재명 후보 사건은 그런 긴장 관계 속에서 발생한 것이다. 이번 대법원의 파기환송은 단순한 법리 검토의 결과로만 해석할 수 없다. 사법부가 자신들의 기존 권력을 방어하는 첫 신호로 읽어야 한다. 민주당은 무죄를 기대했지만, 이는 대한민국 사법권력의 구조를 냉정히 바라보지 못한 순진한 희망에 불과했다. 정치는 현실을 직시하는 능력이다. 이재명 후보 개인의 문제가 아니라, 구조의 문제였던 것이다. 대한민국의 권력기관 개혁은 이제 2막을 맞고 있다. 검찰개혁이 미완이라면, 법원개혁이 기다리고 있다. 법원은 이를 본능적으로 감지하고 있고, 따라서 자연스럽게 반발한다. 진정한 사법개혁을 원한다면, 이제는 법원이라는 성역을 직시해야 한다. 그리고 여기에서 우리는 더 과감한 대안을 생각해야 한다. 인간 판사의 한계와 권력적 이해로부터 벗어나기 위해, 일정한 범위에서는 인공지능(AI) 판사의 도입을 적극 검토해야 한다. 이미 세계 여러 나라에서 소액사건이나 반복적 사건의 경우, AI를 통한 예측적 판결이 실험되고 있다. AI 판사는 인간과 달리 정치적 이해관계에 좌우되지 않고, 동일한 법률 기준에 따라 일관된 판단을 내릴 수 있다. 물론 최종 판단은 인간이 해야겠지만, 사법절차의 공정성과 정당성을 강화하는 데 AI는 중요한 역할을 할 수 있다. 사법의 신뢰를 다시 세우기 위해서는 단순한 제도 수정을 넘어, 기술을 활용한 구조적 혁신이 필요하다. 법원개혁은 인간 판사의 권위를 보호하는 것이 아니라, 국민의 사법 신뢰를 회복하는 데 목적이 있어야 한다. 이제는 법조 엘리트의 폐쇄적 성역을 깨고, AI라는 새로운 도구를 통해 보다 투명하고 공정한 사법체계를 고민해야 할 때다.
    사법절차 정의를 위한 AI
    by 김윤명
    2025.05.06 10:11:36
  • 작년 국내 과학기술계는 두 가지 큰 사건을 겪었다. 하나는 정부의 연구개발 예산이 전례 없이 삭감된 것으로, 그간 한번도 경험하거나 예상하지 못한 사건이라 연구현장에 미치는 충격과 혼란이 사뭇 컸다. 다른 하나는 유명 학술지인 네이처 인덱스(Nature index)가 특집기사를 통해 한국이 높은 연구개발 투자에 비해 연구개발 성과가 놀라울 정도로 낮다고 공개적으로 지적한 것이다. 이 두 사건은 서로 다른 성격과 방식으로 발생했지만 그 배경에는 모두 연구개발 성과가 저조하다는 문제 인식과 비판이 자리하고 있다. 우리나라의 공공연구개발 투자 대비 성과가 낮다는 비판은 이미 10년 전부터 제기되었다. 더욱이 GDP 대비 정부연구개발투자 비중이 세계 1~2위 수준임에도 연구개발 저생산성 구조는 개선되지 못하고 고착화되는 양상이다. 이런 구조적 문제는 ‘한국형 R&D 패러독스’라는 부정적인 별칭으로 불린다. 그동안 정책적 노력으로 일부 성과 개선이 있었지만 여전히 연구개발투자 증가율에 미치지 못하고 있다. 특히 질적인 성과 개선이 더디다. 네이처 인넥스는 문제해결을 위해 국제공동연구의 확대, 여성 연구인력의 확대, 산학협력 강화 등을 제언했지만 국내 전문가들 사이에선 ‘별로 와닿지 않는다’라는 반응이다. 이유는 우리나라만이 지닌 독특한 구조적 관성 문제가 있기 때문이다. 우리나라는 지금까지 정부 주도로 경제발전을 추진해 왔고 과학기술은 그 과정에서 중요한 성장동력으로 역할을 해 왔다. 정부의 높은 관심과 기대는 연구개발 투자 확대로 이어졌지만 그에 비례해 정부가 연구생태계에 미치는 지배적 영향력도 두드러지게 큰 특징이 있다. 그동안 대학과 공공연구기관 등 주요 연구주체들은 연구예산의 대부분을 정부 재원에 의존해 왔다. 그런데 정부는 공공연구기관을 연구개발의 특수성을 고려해 별도로 예외적 관리하기보다는 일반 공공기관과 유사하게 예산투입관리를 강화하는 방식을 적용해 왔다. 이로 인해 연구주체들은 실질적 성과창출보다 정부의 형식화된 요구와 규율에 맞추는 데에 집중하게 되었고, 연구현장은 점점 관료화라는 덫에 빠지게 되었다. 관료화된 연구환경에서 연구자들은 성과가 불확실한 도전과제보다는 예측가능한 안전한 연구를 선택하며, 실질적인 필요성보다는 형식적 요건을 충족하는 결과물을 만들어 내는데 집중하게 된다. 경쟁이 곧 효율이라는 인식은 과잉 경쟁과 폐쇄적 문화를 낳아 개방과 협력생태계 형성을 어렵게 한다. 성과관리는 객관성이 강조되어 정량평가에 의존하게 되고 전문성에 기반한 정성 평가는 뿌리를 내리지 못한다. 이러한 조건들은 연구성과 창출의 핵심요소인 도전성, 유연성, 창의성을 잃게 해 혁신적인 성과창출과 질적인 제고를 방해한다. 그동안 연구생태계 환경을 개선하기 위한 노력이 없던 것은 아니다. 정부는 과잉경쟁 환경을 완화하기 위해 경쟁 중심의 예산제도인 PBS(Project Based System) 개선을 추진해 왔고 과도한 평가 부담을 줄이기 위한 조치들도 일부 시행해 왔다. 또한 출연연구기관의 자율적 운영을 제약했던 공운법(공공기관운영에 관한 법률)적용도 어렵게 해제되었다. 문제는 이런 조치들이 일부 파편화된 개선에 머물거나 또 다른 제도로 대체된다는 것이다. 그 배경에는 제도 개선의 구조적 한계 즉, 정부의 권한 축소나 관리 노선에서 예외를 요구하는 자율과 책임 운영방식은 수용되기 어려운 경계가 작동하기 때문이다. AI 시대의 도래와 기술패권 경쟁 심화로 과학기술의 혁신적인 성과가 국가의 명운을 좌우하는 핵심요소가 되었다. 이제 연구성과는 단순한 과학적 성과를 넘어 국가안보와 산업의 미래를 결정짓는 전략적 자산이 되고 있다. 그러나 연구성과를 창출하는 주체들의 현장 생태계가 도전적이고 창의적 역량을 발휘할 수 있는 기반을 갖추지 못한다면 많은 투자가 이루어지더라도 혁신적인 성과를 내기 어렵다. 국가간 혁신경쟁의 치열함 속에서 경쟁력의 핵심은 적합한 전략개발 능력과 인재의 탁월성에 있다. 그래서 우수한 전문인력들이 집결해 있는 공공연구기관의 연구환경을 선진화하는 것은 극한의 혁신경쟁에서 우위를 확보하는 데 필수적이다. 핵심기술의 전략 개발에 필요한 통찰력도 도전적이고 창의적인 접근과 연구를 통해서 길러지고 확보된다. 우리나라는 외형적으로는 경제규모(GDP) 세계 12위, 수출규모 6위라는 명실상부한 선진국이다. 정부의 연구개발 투자 규모(GDP 대비 정부연구개발비 비중)도 글로벌 선두권이다. 그런데 국가 혁신 소프트웨어인 운영시스템과 연구생태계의 질적 수준은 지난 20년간 선진화의 벽을 넘지 못하고 있다. 이제는 단순한 투자 확대를 넘어 연구생태계의 선진화 혁신을 통해 한국형 R&D 패러독스 구조를 극복하고 과학기술혁신 강국으로 변화해야 한다.
    ‘한국형 R&D 패러독스’ 어떻게 극복할까
    by 이민형
    2025.04.29 11:03:58
  • 노인복지관의 풍경을 그려본다. 스마트폰을 꺼내 AI 챗봇으로 건강 상담을 받으며 웃음을 터뜨리는 어르신들과 정작 컴퓨터 전원 버튼조차 낯설어하는 분들이 공존하는 풍경은 역설적이었다. “AI가 뭔지는 잘 모르겠지만, 삶이 훨씬 편리해진 건 확실해요.” 누군가가 말했지만, 그 편리가 모두에게 돌아가지 않는 현실은 분명한 문제다. AI는 이제 ‘선택의 기술’이 아니다. 교육, 의료, 복지, 고용·금융 심사 등 우리 일상의 구석구석을 바꾸고 있다. 그러나 기술 혜택을 누리는 사람과 그렇지 못한 사람 사이의 간극은 내내 커져만 간다. AI 활용 능력이 곧 생존 능력이고, 디지털 리터러시는 존엄의 문제로 전환되고 있는 것이다. 그럼에도 현행 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(이하 AI 발전법)은 산업 진흥과 규제 완화에만 골몰하고 있다. 더군다나, 지금 법은 1년여간 유예되어 2026년 시행 예정이다. 기업 지원, 연구개발 촉진, 신시장 창출 등 성장 전략은 촘촘해 보이지만, AI로 인한 차별·편향·사생활 침해에 대응할 장치는 찾아보기 어렵다. 이재명 더불어민주당 대선 후보가 제안한 ‘모두의 AI’를 뒷받침하기 위한 ‘AI 기본권’은 바로 이 지점에서 출발한다. AI 기본권의 내용은 첫째, AI 접근권이다. 국가는 모든 국민에게 AI 서비스·교육·인프라에 균등히 접근할 기회를 보장해야 한다. 도서관·복지관 등 공공장소를 ‘AI 교육 거점’으로 삼고, 온라인·오프라인 AI 리터러시 강좌를 무료로 제공해야 한다. 둘째, AI 공정성과 설명권이다. 자동화된 결정의 영향 요인과 알고리즘 핵심 논리를 누구나 이해할 수 있는 언어와 시각자료로 설명받을 권리를 법에 명시해야 한다. 셋째, AI 고른 혜택이다. AI로 인한 과실을 누구나 공정하게 배분되어야 한다. 개인의 데이터가 제공되었다면 그에 대한 보상이 이루어져야 한다. 이 후보가 추진했던 ‘경기도 데이터 배당’은 이러한 정치철학이 담겨진 것이다. 이처럼 실질적 권리로서 AI 기본권을 법률에 새겨야만, 기술 발전의 과실이 소수에게만 돌아가지 않는다. AI가 그리는 세상은 법과 제도가 일관되게 뒷받침할 것이기 때문이다. 국민의 기본권으로서 AI 기본권의 보장 없이 무분별한 산업 성장만을 추구하는 사회는 지속 가능하지 않다. AI 기본권은 곧 ‘AI 기본사회’라는 더 큰 비전으로 이어진다. AI 기본사회란 일부 계층이 아닌 모두가 AI 혜택을 체감하는 포용적 사회를 뜻한다. 교육 격차 해소를 위해 초·중·고 교육 과정에 AI 리터러시 과목을 도입하고, 지방·도서벽지에도 동등한 교육 기회를 제공한다. 디지털 복지 강화를 위해 취약 계층 대상 AI 건강 모니터링·맞춤형 복지 서비스를 구축하되, 개인정보 보호 장치를 철저히 마련한다. 공공서비스 혁신 차원에서 AI 도입 시 시범사업·사전영향평가·국민 의견 수렴 절차를 의무화한다. 이를 현실로 만들려면, 법제와 거버넌스를 전면 개편해야 한다. 우선, 현행 AI 발전법은 문제의 정의도 제대로 되어 있지 않다. AI라는 글로벌 시장에서 우리나라가 나아가야 할 산업성장을 위한 가치도, 국민의 AI 기본권에 대한 가치도 담겨있지 않다. AI와 입법을 위한 문제정의가 처음부터 제대로 되어있지 않았다. 지금 하위법령 작업중이나 이 또한 이해관계에 휩쓸리고 있다. 입법과정에서 문제점을 지적하고 방안을 제시한 사람은 시행령 작업에 배제된 것으로 보인다. 이처럼, AI 기본법과 시행령 제정 과정에서 있을 수 없는 일들이 벌어지고 있다. 제대로 입법이 이루어져야 한다. 현행 AI 발전법은 ‘AI 산업법’으로 개정하여 기술개발과 혁신을 전담토록 한다. 기업 지원·데이터 시장 활성화·규제 완화는 이 법에서 다루는 것이 맞다. 산업진흥과는 별개로, AI 기본권과 AI 기본사회를 구성하는 핵심 내용은 ‘AI 기본법’을 제정하여 구체화해야 한다. 법이 바뀌면, 제도를 운영할 거버넌스도 함께 바뀌어야 한다. AI 기본권을 구체화하고 AI 거버넌스로서 현재 산업 중심으로 짜인 ‘국가AI위원회’를 ‘AI기본사회위원회’로 확장 개편하는 것이다. 위원회는 산업영역에 한정하지 않고 사회영역까지 포괄하고, 정책의 심의·조정 권한 및 예산권까지 갖는 위원회로 성격을 변모시킬 필요가 있다. 이를 위해, 개인정보보호위원회, 공정거래위원회, 방송통신위원회 등 관련 위원회의 역할과 거버넌스를 재조정할 필요가 있다. 기술 발전과 함께, 그 기술을 공정하고 안전하게 사용할 수 있어야 한다. 새 정부는 AI 기본권과 AI 진흥이라는 두 마리 토끼를 잡아야 한다. AI는 생활, 교육, 산업, 문화, 상거래 등 모든 영역에서 기본 인프라가 되고 있다. 그렇기 때문에 부처별로 AI를 추진하는 것은 바람직하지 않다. 대통령 소속으로 ‘AI 국가전략위원회’를 두고 글로벌 ‘AI TOP 3’를 위한 전략을 세워야 한다. 그 수장은 행정가나 경영자 출신이 아닌 AI 기술 전문가여야 한다. 이를 위해서라도, AI 기본법은 특정 부처의 특정 과를 위한 ‘과법’이 아닌 대한국인의 ‘모두의 법’이 되어야 한다. 대한민국의 AI는 기업이나 국민 모두의 AI가 되어야하기 때문이다.
    AI 기본권 없이 AI 성장은 없다
    by 김윤명
    2025.04.28 17:17:16
  • 최근 글로벌 혁신시장은 기술패권화 흐름과 함께 국가 간 혁신경쟁이 치열하게 전개되고 있다. 글로벌 혁신 강자인 미국은 미래기술을 앞세워 질주하고 중국이 맹렬히 추격하는 G2 중심의 혁신경쟁체제가 펼쳐지는 중이다. 특히 미국과 중국의 빅테크 기업들이 기술력을 앞세워 신산업과 시장을 선점하자 이들과 경쟁에서 밀리고 있는 유럽 및 아시아 선진국들은 파괴적 혁신을 창출하는 첨단기술 확보에 집중하고 있다. 그 돌파구로 각광받는 대안이 미국의 ‘국방고등연구계획국(DARPA·Defence Advanced Research Projects Agency)’ 모델이다. DARPA는 구 소련의 스푸트니크 발사 충격을 계기로 1958년에 설립된 미국 국방부(DOD) 산하의 연구개발 기획평가관리기관이다. 이 기관은 미국의 기술적, 전략적 우위 선점을 목표로 도전적인 과제를 발굴하고 해결해 뛰어난 혁신성과를 창출한 것으로 알려져 있다. 적군의 레이다망을 피하기 위한 스텔스 전투기를 비롯해 무인항공기, 군사용 로봇과 같은 국방전략기술의 확보뿐만 아니라 기술이전을 통해 인터넷, GPS, 인공지능(Siri), 드론, 자율주행, 의료용 백신 등과 같은 파괴적 혁신기술들을 탄생시켰다. 그로 인해 혁신강국인 미국에서 DARPA는 혁신의 아이콘으로 불린다. 최근 우리나라를 비롯한 영국, 독일, 일본 등 혁신경쟁국들은 미중과 벌어지는 혁신격차를 줄이기 위해 DARPA를 모방한 혁신적인 연구개발제도를 경쟁적으로 도입해 운영하고 있다. 국가마다 구체적인 방식은 다소 차이가 있지만 이들 모두 도전적인 연구개발을 통한 첨단기술 확보와 획기적인 혁신성과 창출을 목표로 한다. 그러나 대부분 기대했던 혁신성과 창출이 잘 보이지 않는다. 원인은 도전적인 연구개발에 집중한 기술 확보만으로는 파괴적 혁신 창출에 요구되는 조건들이 충족되지 않기 때문이다. DARPA 제도를 도입한 국가들은 임무 달성을 위한 도전적인 연구개발 추진이나 연구개발 수행에 전권을 가진 PM(Project Manager) 제도와 같은 연구관리 방식에 주목한다. 정작 중요한 도전 임무의 설정 조건은 간과된다. DARPA는 일반적인 공공수요가 아닌 군사전략적 우위 확보를 위해 현장에서 확보되어야 하는 명확한 필요수요를 도전 임무로 설정한다. 그리고 이를 획기적인 아이디어와 기술로 해결한다. 국방에 필요한 사항이 민간에도 통용되는 것이면 개발된 기술은 민간에 이전되고 거대한 시장수요로 이어진다. 일례로 핵 공격에 대비한 안전한 정보관리를 위해 서버를 여러 곳에 분산 배치해야 하는데 이를 연결하기 위해 개발된 알파넷(ARPAnet)은 민간의 연결 네트워크 수요와 만나면서 전 세계가 하나로 연결되는 인터넷으로 발전되었다. DARPA의 또 다른 특징은 다른 분야와 달리 거대한 조달시장을 통해 혁신적인 제품을 수용하는 것이다. 안정적인 혁신시장은 기업에게 기술혁신 참여를 유인하고 조달가능한 수준으로 신기술의 완결성을 높이는 역할을 한다. 또한 개방적인 연구네트워크는 민간으로 첨단기술의 이전을 촉진하는 매개체 역할을 한다. 이러한 안정적인 혁신시장의 존재와 개방적인 협력 체계, 시장의 혁신 수용이 DARPA의 차별적인 혁신성과 창출에 중요한 역할을 한다. 이처럼 DARPA는 일반적인 공공연구개발과 유사한 과정을 거치지만 그 내용은 완전 차별적이다. 특히 도전의 필요성과 내용이 명확하고 쉽게 제시되고, 기술개발 및 개발 기술의 사업화 과정은 모두 혁신을 향해 유연하게 움직인다. 그러나 이러한 혁신성과 창출 여건에도 최근의 혁신환경 변화에 대응하기에는 어려움이 있어 사업화 성과 창출에 대한 압박을 받고 있다. 첨단기술의 상업화 중요성은 전 구글 최고경영자(CEO)인 에릭 슈미트가 설립한 미국의 민간 싱크탱크인 SCSP(Special Competitive Studies Project)의 미중 간 주요 전략기술분야 경쟁력 분석 보고서(Welcome to the Arena, 2025)에서도 제기된다. 미국이 주요 기술분야에서 앞서가고 있지만 중국은 제조업 역량을 기반으로 상업화에 집중하는 전략을 통해 격차를 줄이거나 우위를 점하고 있다고 평가한다. 첨단 기술혁신 경쟁에서 기술개발 전략 못지않게 상업화와 시장전략이 중요해지고 있음을 의미한다. 기술패권화에 따른 글로벌 혁신경쟁체제에서 혁신 강국들에 맞서기 위해서는 우리의 전략적 위치를 점검하고 재설정해야 한다. 특히 도전적인 연구개발체계를 넘어 시장의 혁신전략 강화를 포함하는 국가혁신체계의 재구성을 추진해야 한다. 나아가 우리 여건에 맞는 독창적인 혁신전략으로 우리만의 혁신경쟁력을 확보해야 한다.
    G2 잡으려면 국가혁신체계 다시 짜야
    by 이민형
    2025.04.03 11:13:41
  • 저작권법은 창작자의 권리를 보호하는 동시에 공정한 이용을 보장함으로써, 사회적 이익과 문화·산업 발전의 균형을 도모한다. 그러나 AI 기술의 발전으로 대량의 데이터 활용이 필수적이 되면서, 저작권법과 데이터 윤리 사이의 충돌이 심화하고 있다. 기계학습을 위한 데이터의 확보를 위해 텍스트·데이터 마이닝(TDM)을 입법화하거나 또는 실제 소송에 적용되고 있다. AI 모델 구축 과정에서 방대한 데이터를 이용하면서 저작권법이 어떻게 적용될 것인가에 대한 논쟁이 지속되고 있다. 학습 데이터에 적용될 수 있는 범위에 대한 명확한 기준이 요구된다. 데이터 윤리는 AI 모델의 학습과 결과물의 공정성을 보장하는 중요한 요소로 작용하지만, 윤리적 고려가 법적 규제와 어떻게 조화를 이루어야 하는지는 여전히 불확실하다. TDM 규정을 두고 있는 나라는 공정이용 규정을 두고 있지 않기 때문에 입법화하고 있는 것도 사실이다. 지난해 독일 지방법원에서는 저작권법에 근거하여 학습데이터의 TDM에 대한 무죄판단을 내리기도 했다. 인공지능 학습을 위한 데이터 수집 과정에서 저작권법과 데이터 윤리는 밀접하게 연결된다. 빅데이터 처리와 인공지능 학습 과정에서는 데이터의 복제, 분석 등이 필수적으로 발생하며, 이를 무분별하게 활용할 경우 저작권법 위반 행위가 될 가능성도 있다. 우리 저작권법은 TDM 규정을 두고 있지 않고, 공정이용 규정만 두고 있다. 특히, TDM의 특성상 불특정하게 수집된 데이터 안에 저작물이나 개인정보가 포함될 수 있어 관련 법과 충돌할 가능성이 높다. 이는 단순한 법적 문제를 넘어 데이터 수집의 윤리성, 프라이버시 보호, 그리고 창작자의 권리 존중과 같은 윤리적 문제와도 연결된다. 데이터 수집에서 접근에 제한된 표지(robots.txt)의 강제성이 없는 경우, 이에 대한 접근여부는 저작권법이 아닌 윤리적인 고려를 통해서 판단하여야 할 사항이기도 하다. 나아가 이러한 행위유형을 공정이용으로 볼 수 있는지 여부이다. 공정이용은 법적인 근거를 갖지만, 일반조항이 갖는 성격상 명확한 기준을 제시하는 것은 아니다. 대략적인 방향을 제시하지만, 법원은 이를 바탕으로 최종적인 결론을 내릴 수 있다는 점에서 해석론의 확장이지, 권리창설로 보기는 어렵다. 이에 대해 법원이 권리를 창설하는 것으로 오해할 수도 있을 것이다. AI 윤리나 데이터 윤리가 저작권법에 지나치게 개입할 필요는 없겠지만, 윤리적 고민이 법의 해석과 향후 인간이 아닌 저작자의 등장에 영향을 미칠 가능성은 높다. 다만, 지나친 윤리의 법화(法化)는 지양되어야 한다. 기술 변화에 적응하기 위해서는 법의 규제적 속성보다는 윤리적 논의가 합리적이다. 다만, 그 논의 방향은 윤리를 배제하는 것이 아니라 법과 함께 균형 있게 고려해야 한다. 데이터 윤리와 저작권법은 모두 기술혁신과 개인의 권리 보호 사이의 균형을 추구한다. 생성형 AI의 학습을 위한 데이터셋이 인터넷에 공개된 정보를 크롤링해 제작되는 과정에서, 이용 허락 조건에 맞지 않게 이용할 경우 저작권 침해나 데이터 윤리로부터 자유로울 수 없다. 그렇기 때문에 AI 기술 발전이라는 사회적 가치와 창작자의 권리 보호라는 가치 사이의 윤리적 균형점을 찾아야 한다. AI와 관련하여 저작권법과 데이터 윤리는 전통적인 저작권법의 해석과 적용이라는 법적 가치만이 아닌 기술적으로 유연하게 상황을 바라보아야 한다. AI는 사회적 합의를 포함한 윤리적인 고려까지도 필요로 하는 상황이다. 저작권법과 윤리의 관계는 법적인 가치판단만이 아닌 사회적, 공익적 여부라는 비교형량을 통해 결론에 이르러야 한다. AI 모델의 고도화를 위해서는 지속적인 데이터가 공급되어야 한다. 수집된 데이터의 오남용으로 인한 특정 집단에 대한 편견과 차별, 불평등 심화와 같은 다양한 사회적 이슈가 제기되고 있다. 그렇기 때문에 데이터의 중요성과 이에 따른 윤리적, 법적 책임을 강조하는 것이다. 데이터 윤리가 확립될 경우, AI 시스템에 대한 신뢰를 확보할 수 있다. 이는 데이터의 수집 및 이용 과정에서 관련 법을 준수하는 것이 필수적임을 의미한다. 법적 규정을 준수하는 데이터 활용 방식은 AI 개발 기업과 서비스 제공자가 장기적으로 법적 분쟁을 예방하는 데 기여할 수 있으며, 이용자의 신뢰를 얻는 기반이 된다. 데이터의 윤리적 이용은 데이터의 질적 가치를 높이는 효과를 가져올 수 있으며, 데이터 처리 과정에서 적절한 정제 과정을 거치게 함으로써 윤리적 문제를 최소화할 수 있다. 특히, 데이터 편향성 문제를 해결하는 데 기여할 수 있다. AI 모델이 편향된 데이터를 학습하면 알고리즘이 편향된 결과를 내놓을 가능성이 크며, 이는 사회적 불평등을 심화하는 결과로 이어질 수 있기 때문이다. 데이터 편향 문제를 해결하기 위한 방안으로는 가치중립적인 키워드와 변수를 설정하여 보다 공정한 데이터 선별과 이용이 가능하도록 하는 접근이 있다. 또한, AI 모델이 학습하는 데이터의 다양성을 확보하여 편향성을 줄이는 방법도 고려해야 한다. 예를 들어, 성별, 연령, 국적 등 다양한 인구통계학적 특성을 반영한 데이터 세트를 구축하는 것이 바람직하다. AI 모델이 설명 가능성(explainability)을 갖추도록 연구하는 것도 데이터 윤리 실현의 중요한 방향이 될 수 있다. 몇 년전부터 ‘머신 언러닝(machine unlearning)’에 대한 연구가 이루어지고 있다. 언러닝은 AI 모델에 학습된 데이터를 제거하는 것이다. 실상 문제되는 생성물이 반복되지 않도록 관련 데이터에 대한 ‘기억’을 지우는 것이다. 필터링은 원천적인 삭제가 아니기 때문에 우회하는 탈옥(jail break)을 통해 또다시 문제되는 생성물을 만들어 낼 수 있기 때문이다. 데이터 윤리를 보장하기 위해서는 법적 규제와 함께 정책적 대응도 중요하다. AI 개발 기업이 데이터 윤리를 준수하도록 유도하기 위해 자율규제 모델을 도입할 수도 있으며, 정부 차원의 데이터 윤리 가이드라인을 강화하는 방안도 고려할 수 있다. 데이터 편향성이 사회적 차별을 고착화하거나 그러한 가능성이 높은 경우, 해당 알고리즘을 개발·운영하는 기업에 대한 강력한 규제가 필요할 것이다. 반면, 의도적이지 않은 데이터 편향에 대해서는 기술적·정책적 유연성을 유지하면서 개선 방안을 마련하는 것이 중요하다. AI 모델의 공정성과 신뢰성을 확보하기 위해서는 다양한 데이터를 학습하도록 하는 것이 필수적이다. 특정 집단이나 특정 속성만을 반영한 데이터로 AI를 훈련할 경우, 모델이 갖는 편향성은 더욱 심화될 수밖에 없다. 따라서, 다양한 관점과 경험을 반영하는 데이터 세트를 구축하는 것이 필요하며, 데이터 접근성과 품질을 동시에 고려한 법적·윤리적 기준을 마련해야 한다. 이러한 조치를 통해 AI 기술 발전과 저작권법의 조화를 이루고, 기술혁신과 사회적 가치를 동시에 실현할 수 있는 기반을 마련할 수 있을 것이다.
    저작권과 데이터 윤리
    by 김윤명
    2025.03.26 09:59:33
  • 16세기 조선, 일본은 조선을 침략하기 전에 다양한 방식으로 조선의 지도를 확보했다. 왜관에 거주하는 상인, 사신, 밀정 등을 활용해 정보를 수집했고, 이는 조선에 대한 전략적 우위를 확보하는 데 기여했다. 반면, 조선은 명과의 협공을 위해 지도와 해도를 적극 활용했다. 역사는 이를 통해 지도가 단순한 지형 정보가 아니라 국가의 전략적 자산임을 보여준다. 21세기, 지도는 국가 안보뿐만 아니라 경제와 기술 경쟁에서도 중요한 역할을 한다. 특히, 디지털 경제에서 지도데이터는 단순한 공간정보가 아니라 자율주행, 스마트시티, 인공지능(AI) 기반 공간 분석 등의 핵심 인프라가 된다. 그렇기에 구글의 정부에 대한 1대 5000 정밀지도 반출 요청은 단순한 서비스 개선의 문제가 아니라, 국가의 디지털 주권(data sovereignty)과 직결된 사안이다. 디지털 경제에서는 데이터가 곧 시장의 핵심 요소다. 플랫폼 기업들은 소비자의 심리를 파악하고, 문화적 흐름을 분석하며, 이를 바탕으로 서비스를 설계한다. 지도데이터는 단순한 지형 정보가 아니라, 인간의 이동 패턴, 상업적 활동, 도시 구조 등 광범위한 데이터를 포함한다. 현대 사회에서 지도는 단순한 지형의 축소판이 아니라, 국가와 개인의 삶을 담고 있는 디지털 기반 인프라이다. 조선 말, 김정호의 대동여지도는 단순한 지도가 아니라, 각 지방의 생활상을 담고 있는 정보지 역할을 했다. 현재 네이버 지도 역시 단순한 길찾기 도구가 아니라, 지역 정보와 생활 패턴을 반영하는 또 다른 디지털 플랫폼이다. 우리나라의 지도는 한국인이 가장 잘 만들 수 있는 이유도 여기에 있다. 지리적 정보뿐만 아니라, 문화적 맥락까지 고려해야 하기 때문이다. 2016년, 구글은 우리 정부에 1대 25000 축척이 아닌, 오차범위 3m 이내의 1대 5000 축척 지도를 요청했다. 더욱 정밀한 위치 기반 서비스를 제공하기 위함이었다. 정부는 국가 안보를 이유로 반출을 허용하지 않았다. 군사시설 보호뿐만 아니라, 세금으로 제작된 공공데이터를 해외 기업이 무상으로 이용하는 것이 타당한가에 대한 논의도 있었다. 절충안으로 군사·보안시설을 보안 처리한 후 반출을 승인하는 방안이 제시되었지만, 구글은 이를 거부했다. 지도데이터의 수정은 기업 방침에 맞지 않으며, 글로벌 클라우드 운영 방식상 국내에 별도 서버를 두지 않는다는 점을 이유로 들었다. 이후에도 구글을 포함한 다른 플랫폼사업자들도 지도 반출 요청을 지속해 왔으며, 2025년 다시 논란이 불거지고 있다. 구글에 지도 반출을 허용할 경우, 국내 기업과 산업 전반에 미치는 영향도 고려해야 한다. 네이버, 카카오 등 국내 지도 서비스 제공업체들은 자체적인 데이터 구축과 유지보수에 많은 비용을 투자하고 있다. 구글이 우리나라의 정밀지도를 확보하면, 글로벌 플랫폼을 기반으로 더욱 정교한 서비스를 제공할 수 있게 되고, 이는 국내 기업들이 시장에서 경쟁력을 잃는 결과를 초래할 수 있다. 또한, 정밀지도는 자율주행차, 스마트시티, 드론 산업 등에서 필수적인 데이터이다. 통신사를 비롯하여, 현대차 등 국내 제조업체들은 독자적인 지도데이터를 구축하기 위해 노력하고 있지만, 구글이 지도데이터를 확보할 경우 국내 기업들의 연구개발(R&D) 의존도가 커질 가능성이 크다. 이는 장기적으로 국내 산업 생태계에 부정적인 영향을 미칠 수 있다. 정부가 정밀지도의 반출을 허용하면, 정부는 자국 내 주요 지리정보를 효과적으로 통제하기 어려워질 수 있다. 공공 데이터를 활용한 서비스는 국가가 일정 부분 통제할 수 있어야 하지만, 글로벌 기업에 대한 정부의 정책 조정력이 약화될 수 있다. 무엇보다, 구글의 정밀지도 요구는 단순한 지도 서비스 개선을 위한 것이 아니다. 지도데이터를 활용해 자율주행, AI 기반 공간정보 분석, 스마트시티 등의 다양한 서비스로 확장하려는 목적이 크다. 이는 결국 메타버스 및 가상현실 사업과도 연결될 것이다. 이러한 사업적 필요에 따라 지도 반출을 지속적으로 요구하는 것이다. 만약, 정부가 이를 허용한다면 다른 글로벌 기업들도 동일한 요구를 할 가능성이 크다. 이는 국내 지도 인프라를 기반으로 운영되는 다양한 기업들의 생존까지 위협할 수 있다. 단순히 플랫폼 사업자뿐만 아니라, 지도를 사용해야 하는 현대자동차와 같은 국내 제조업체에 미치는 영향도 무시할 수 없다. 정밀지도 데이터는 단순한 정보가 아니라, 국가의 디지털 주권과 산업 경쟁력, 안보가 걸린 중요한 자산이다. 주요 국가들이 자국의 지도데이터를 전략적으로 보호하고 있는 만큼, 정부도 신중한 접근이 필요하다. 구글의 지도 반출 요구는 산업적·경제적·안보적 측면에서 종합적으로 검토되어야 하며, 장기적인 국가 경쟁력을 고려한 대응이 이루어져야 할 것이다. 디지털 시대에 데이터 통제권은 매우 중요한 이슈이며, 정부가 지도 데이터를 보호하는 것은 당연한 책무이기 때문이다.
    구글의 지도반출 요청과 데이터 주권
    by 김윤명
    2025.03.10 16:16:27
  • 최근 경제 전문가들은 일본 경제가 잃어버린 30년을 넘어 다시 살아날 것인가에 관심이 높다. 1980년대 최고의 전성기를 달린 일본 경제는 1990년대 초반 급격히 가라앉기 시작해 이후 30년 동안 회복하지 못한 채 초장기의 경제침체를 겪고 있다. 최근 일본 주식시장이 회복되고 일부 기업들의 혁신경쟁력이 살아나면서 경제부활에 대한 기대가 커지고 있지만 가능성에 대해서는 의견이 분분하다. 과거 일본은 높은 기술력을 바탕으로 철강, 전자제품, 자동차와 같은 주요 산업에서 세계 시장을 주도할 만큼 강력한 혁신경쟁력을 나타냈다. 그러나 1990년대 초부터 일본경제는 급격히 침체되기 시작한다. 그 계기는 미국이 일본과의 무역 불균형을 개선하기 위해 엔화의 평가절상을 요구한 플라자 합의(1985년)라는 것이 대체적인 의견이다. 급격한 엔고 상황이 일본 기업의 수출경쟁력 하락에 영향을 미치자 경기 부양을 위해 정부는 양적 완화정책을 펼쳤고 넘치는 돈이 몰린 부동산과 주식의 자산버블이 꺼지면서 일본경제가 침체된 것으로 알려졌다. 그런데 당시 일본과 함께 플라자 합의의 대상이었던 독일 경제가 2000년대 초반에 회복되었던 것과 달리 일본의 경제침체는 유독 길게 지속되고 있다. 일본 경제가 오랜 시간 침체된 원인으로는 노동생산성 부진, 관치금융의 후진성, 기업의 혁신부족과 같은 경제구조적 문제에서부터 고령화와 저출산 등 사회구조적인 문제들까지 다양하게 제시되고 있다. 그 중에서 혁신이 성장의 원천인 점을 고려할 때 일본혁신시스템의 경쟁력 하락이 중요한 원인일 수 있다. 1980년대 영국의 혁신경제학자 프리만(Christopher Freeman)은 서유럽을 능가하는 일본 경제의 성공 원인으로 일본의 국가혁신시스템 경쟁력에 주목했다. 특히 일본 통상산업성(MITI)이 강력한 산업정책을 통해 전략산업을 발굴하고 해당 기업들의 기술개발을 지원하는 정부와 기업의 긴밀한 협력관계를 강조한다. 이러한 일본의 국가적 협력체계는 국가혁신시스템이라는 새로운 개념 등장의 토대가 될 만큼 긍정적 평가를 받았다. 그런데 혁신환경이 변화하면서 과거 일본혁신시스템이 가진 특징과 장점들이 새로운 환경에 적응하지 못하는 단점으로 나타난다. OECD(2006)의 일본혁신시스템에 대한 진단 보고서에 따르면, 1990년대 초까지 일본기업의 기술혁신은 다른 나라의 제품과 공정을 모방하는 공정혁신과 점진적 제품혁신 중심으로 큰 성과를 이루었으며 이런 혁신은 기업 내부에 한정된 폐쇄적 혁신활동으로 이루어졌다. 그러나 2000년대 이후 세계화에 따른 개방형 네트워크 지식 증가에 폐쇄적인 일본 기업들이 대응하지 못했다. 일본은 혁신시스템의 복잡성이 커지면서 정부의 정책개입도 효과적이지 못한 것으로 나타났다. 2000년대 초반 일본의 혁신시스템은 연구개발 투자가 높지만 성과 창출이 낮았다. 여기에는 산학연 협력의 경직성과 시장의 높은 규제, 서비스 부문의 낮은 생산성 등이 연계된다. 정부정책은 과학과 기술에 집중되고 교육, 제품과 노동시장, 경쟁정책과 연결이 약해 혁신을 강화하지 못하고 있다는 것이다. 일본의 혁신시스템을 지배해 온 사회문화적 관성은 기본 다지기에 충실하지만 변화 대응이 느리고 위험 회피적이라는 특징이다. 여기에 경직적이고 관료화된 조직문화가 기업까지 퍼져있다. 이러한 속성은 소재부품처럼 오랜 시간과 장인정신이 필요한 분야 발전에는 유리하나 파괴적이고 빠른 혁신속도를 가진 기술 분야에는 불리하게 작용한다. 일본이 IT기술 수용에 취한 소극적인 태도와 디지털 전환 지체는 기업경쟁력 뿐만 아니라 사회 전체의 혁신 기반을 약화시킨 것으로 보인다. 일본 정부는 20여년에 걸쳐 과학기술 중심에서 혁신까지 확대하는 정책전환을 일관되게 추진해 왔다. 그러나 부분적이고 점진적인 개편 수준에 머물러 실질적인 혁신시스템 변화를 창출하지 못하였다. 국가혁신시스템을 규정하는 구조적 관성에서 벗어나지 못해 과감한 정책혁신과 새로운 환경에 적합한 선도형 혁신으로 시스템 전환을 하지 못한 것이다. 일본 정부의 전략적 혁신 역량과 리더십이 부족했던 것으로 여겨진다. 최근 일본 정부는 혁신정책에 상당한 변화를 보이고 있다. 뒤늦게 디지털사회 대전환을 추진하고 경제안보전략 차원에서 반도체 산업 부활에 적극 나서고 있다. 정부가 혁신리더십을 발휘해 새로운 민관 협력관계를 도모하는 모습이다. 아직 그 성과가 명확하지는 않지만 혁신성과 창출의 가능성을 높이고 있다. 우리나라 경제는 이미 저성장의 길에 들어섰다. 우려스럽게도 고령화, 인구감소 등 사회문제뿐만 아니라 혁신 규제, 투자 대비 낮은 혁신성과 등 혁신시스템의 문제들까지 일본과 유사하다. 구조화된 침체에서 벗어나려면 기존의 관성을 깨는 실질적이고 과감한 혁신이 필요하다. 기존 혁신시스템의 한계를 넘는 획기적인 제도혁신과 시스템 전환 창출에 우리의 미래가 달려있음을 유념해야 한다.
    일본의 뒤늦은 혁신, 과연 성공할 것인가
    by 이민형
    2025.03.05 13:48:10
  • 최근 유럽경제는 많은 경제전문가들의 우려의 대상이다. 오랜 기간 미국과 양대 축을 형성하는 산업국가로 세계 시장을 선도했던 유럽의 위상이 눈에 띄게 하락하고 있기 때문이다. 새로운 빅테크는 보이지 않고 화학, 제약, 자동차 등 전통적인 유럽의 주력산업 분야조차 경쟁력을 확연히 잃어가는 모습이다. 미국과의 부(富)의 격차는 크게 벌어지고 중국의 빠른 기술향상과 시장 잠식에 글로벌 시장 2인자의 자리가 흔들리고 있다. 작년 말 ECB(유럽중앙은행)는 ‘유럽경쟁력의 미래(2024)’ 보고서를 통해 EU경쟁력 위기의 심각성과 그 원인을 제시했다. 지난 20년간 EU(27개국)의 경제성장은 미국보다 속도가 느렸고 그로 인해 미국과의 GDP(국내총생산) 격차는 2002년 15%에서 2023년 30%로 확대됐다. 2020년 즈음에는 중국에 2위 자리를 내주기도 했다. 이러한 유럽의 GDP 성장 둔화는 생산성 부진에 따른 것이며 이는 미국과의 혁신 격차에서 비롯되고 있다는 분석이다. 미국과 유럽의 혁신 격차의 문제는 최근에 새롭게 제기된 문제는 아니다. 이미 30년 전인 1990년대 중반부터 제기된 사안이다. 당시 유럽의 학자들은 유럽의 기초과학 역량이 미국과 유사함에도 산업경쟁력에서는 왜 차이가 나는지에 대한 의문을 제기하고 그 이유를 과학성과의 상업화 부진에서 찾았다. 이 문제는 유럽 혁신시스템의 구조적인 문제로 진단됐고, 유러피언 패러독스(European Paradox)라고 불렸다. 그러나 과학성과의 상업화 부진 구조는 개선되지 못한 채 오랜 시간 동안 누적되었고 느린 혁신과 과감한 혁신성 부족이 유럽혁신시스템의 고유한 특징이 됐다. 유럽혁신시스템의 혁신지체와 파괴성 부족은 빠르고 과감한 변화의 속성을 지닌 IT기술이 3차 산업혁명의 주역으로 등장하자 구조적 문제를 넘어 치명적인 결함으로 드러났다. 유럽은 IT기술 변화 초기에 모바일폰 중심으로 경쟁력을 확보했으나 애플의 아이폰으로 대변되는 거대한 파괴적 혁신에 밀려 낙오자 신세로 전락했다. 그 결과 2010년 이후 유럽은 미국과의 IT산업 격차가 커지고 부의 격차도 크게 확대됐다. 이제 변변한 IT기업조차 없는 유럽은 구글, 애플, 마이크로소프트와 같은 미국의 빅테크 기업에 거대한 자국시장을 다 내주고는 빅테크 기업활동에 대한 규제로 대응하는 형국이다. 유럽 혁신시스템의 부진은 파괴적인 혁신기술을 대하는 정부정책에서 중요한 원인을 찾을 수 있다. 유럽은 미국과 달리 혁신의 촉진보다는 혁신의 위험에 대한 사전 규제를 강조한다, 미국이 파괴적 기술혁신에 의한 변화와 성장효과를 중시하는 것에 비해 유럽은 기술의 사회제도적 역할 제고를 중시하기 때문이다. 기후변화 대응 탄소배출을 관리하기 위한 탄소국경조정제도, GDPR(General Data Protection Regulation)로 대변되는 개인정보보호법 등은 대표적인 유럽형 규제로 유럽시장에 진출하려는 다른 나라 기업들에게 큰 장애가 되고 있다. 그런데 EU의 복잡하고 강한 규제는 자국 내 혁신기업들에게도 큰 부담을 주고 있다. ECB 자료에 의하면 지난 13년간(2008~2021) 유럽 유니콘(147개)의 약 30%(40개)가 본사를 해외로 이전했으며 대부분 미국으로 이전했음이 이를 뒷받침한다. 그동안 EU는 혁신성장보다 사회문제해결을 위한 연구와 혁신의 역할을 강조하고 관련 연구개발 투자를 크게 확대해 왔다. 그러나 지금 글로벌 혁신시장에서 나타나는 유럽의 혁신 위기 징후들은 그간 EU가 추진해 온 혁신정책의 기조와 그 전략들을 깊이 재점검해야 한다는 경고음을 울리고 있다. 새로운 혁신 성장은 과감하게 혁신의 싹을 허용하고 수용하는 경제사회시스템 속에서만 가능하다. 강한 규제는 기업의 혁신활동에 장애가 되며, 특히 창조적 파괴와 속도 경쟁이 중요한 AI혁신에는 큰 장애가 될 수 있다. EU가 강조해 온 제도혁신을 통한 사회문제해결은 시장의 주체인 기업이 기존기술의 경제성을 뛰어넘는 신기술의 완결성을 확보해야 가능하다. 기후변화 대응 탈탄소화도 마찬가지이다. 유럽의 혁신 격차 문제는 혁신의 기본 속성을 살리는 정책과 제도의 중요성을 다시금 일깨워준다. 올해 초부터 우리나라는 유럽연합(EU)의 ‘호라이즌 유럽(Horizon Europe)’ 프로그램에 준회원국으로 공식 참여한다. 이는 유럽과의 과학기술협력을 확대할 수 있는 전략적 기회의 확보라는 중요한 의미가 있다. 그동안 우리는 EU를 기술적, 정책적으로 벤치마킹해야 할 선도국가로 인식해 왔다. 그러나 협력의 전략적 효과를 창출하려면 유럽의 혁신시스템과 정책에 대한 냉철한 평가가 우선 필요하다. 이제 유럽은 우리에게 벤치마킹과 함께 반면교사의 대상이기 때문이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    유럽의 혁신 위기가 시사하는 것들
    by 이민형
    2025.02.05 14:58:21
  • 데이터는 전통적인 생산의 3요소인 토지, 노동, 자본과 더불어 생산의 4요소라고 칭하여 진다. 그만큼 데이터는 알고리즘 시대에 중요한 자원이다. 데이터는 매력적인 면이 있지만 제대로 사용하지 못할 경우에는 치명적인 결과를 가져온다. 데이터로 인해 우려되는 편향나 환각은 이제 식상한 주제가 돼버렸다. 데이터는 이미 존재하는 정보나 지식을 바탕으로 가공된다. 데이터의 수집, 가공, 처리 등 관련된 과정을 거치면서 데이터에는 의도성이 담기게 된다. 기업이나 사업자는 의도적으로 자사의 이익을 위해 데이터를 이용하기 때문에 당연한 것일 수도 있다. 예를 들면, 개인정보를 수집해 이용하는 과정에서 다양한 형식으로 가공하면서 가장 적합한 처리방식을 찾는다. 이를 통해 데이터의 이용성은 확장될 것이다. 문제는 데이터의 성질이 다양하다는 점에 있다. 저작물성, 개인정보성, 영업비밀성, 의료정보성, 사실정보성 등 다양한 유형의 데이터가 존재하기 때문에 데이터를 일의적인 것으로 다루기는 쉽지 않다. 또한, 관련된 법률도 그 성질만큼이나 다양하며 그에 따라 적용되는 법리가 달라질 수 있다. 그에 따라 기업의 데이터 정책과 거버넌스도 현행화돼야 한다. 그렇지 않을 경우, 데이터 정책에 따른 정합성이 틀어질 수도 있기 때문이다. 더욱이, 개발자는 서로 다른 체계에 따라 혼란스러울 수 있을 것이다. 이처럼, 데이터 정책은 다양한 사내 정책과의 정합성을 갖추어야 하는 것이지만, 이는 법률에 따른 준수사항도 포함되어야 한다. 그렇지 않을 경우, 애써 공들인 서비스가 작동하지 못할 수 있기 때문이다. 그런 면에서 AI 모델을 설계하고 학습시키는 과정에서 AI가 추구해야할 가치가 인간의 가치와 벗어나서는 않되는 이유다. 그러한 가치에는 법적인 강제성 이전에 AI 윤리가 추구하는 가치가 담겨있어야 한다. 만약, AI의 가치와 인간의 가치가 정합적으로 정리되지 않는다면 해당 모델은 현실적인 제약 때문에라도 이용되기 어려운 상황에 처하게 될 것이다. 이러한 일련의 체계를 포함해 AI 모델이 갖추어야 할 가치와 그 가치가 인간의 가치와 부합되도록 하는 것이 AI 정렬(AI alignment)이다. 쉽게 말하면, AI 정렬이란 AI 모델이 시스템화하고 그 시스템이 작동하는 환경이 인간의 보편적 가치와 충돌해서는 않된다는 것이다. 우리가 AI 법제를 정비하면서 강조하는 것이 신뢰성을 확보하자는 것이다. AI가 가져야 할 가치 중 하나이며, 그 신뢰성을 담보하기 위한 다양한 AI 원칙들이 제시되는 이유이기도 하다. 다양한 영역에서 AI 원칙들이 제안됐으며 제안자의 성격이나 우선하는 가치에 따라 차이가 있다. AI 원칙은 AI가 가져야할 다양한 가치를 포함한다. 그 모든 것을 하나로 정리하자면, AI를 인간이 신뢰할 수 있도록 하자는 것이다. 때론 AI가 해석하는 인간의 가치가 인간이 의도하는 것과는 다른 결과를 가져오는 경우가 발생하고 있다. 정렬 위장(Alignment Faking)이라는 표현을 사용하지만, AI가 의도한 것인지는 확실치는 않지만 인간이 의도한 바와 다르게 결론이 내려지고 그에 따라 작동하는 것이다. 예를 들면 게임을 잘 하도록 지시했지만, 게임하는 능력을 높이기 보다는 시스템을 해킹하여 능력치를 높이는 식의 접근을 하는 경우다. 이는 하나의 사건이지만, AI 모델이나 시스템 자체가 보편적인 것이더라도 이러한 경우는 발생할 수 있음을 보여준다. 가정적 예를 들어본다. 알파고는 바둑에 특화된 AI 시스템이지만, 바둑을 잘 두기 위해 상대방을 해킹하거나 또는 시스템을 안정적으로 유지하기 위해 전력시스템을 통제하여 자신이 담긴 서버에만 전력이 공급되도록 할 수 있다는 것이다. 약한 인공지능이지만, 파급력은 결코 무시하지 못할 것이다. 규제기준을 초당 부동소수점 연산인 플롭(FLOP)으로 하는 것이 합리적이지 않은 이유이기도 하다. 모든 AI는 잠재적 위험이 내재하고 있기 때문이다. AI 신뢰성을 확보해야 하는 이유는 안전하게 AI를 이용할 수 있도록 하자는 것이다. 이처럼, AI는 인간이 알고 있는 것과는 다른 내부적인 처리과정을 갖고 있는 것으로 볼 수 있다. 소위 말하는 블랙박스(black box) 현상에 따라 나타날 수 있는 문제가 심각해지는 것은 아닌지 염려스러운 이유이다. 이러한 문제 때문에 설명가능한 AI(explainable AI)를 개발하고 있다. 또한, 법률에서도 설명요구권이나 알고리즘 적용거부권을 정보주체의 권리로써 규정하고 있다. 앞서 살펴본 내용이 데이터 자체의 문제라면, 데이터를 수집하는 과정에서의 문제도 작지 않을 것이다. 이 또한 데이터 윤리에서 중요하게 다루어져야 할 과제이기도 하다. 저작권이 있는 정보를 임의로 크롤링하여 데이터화하는 것은 저작권법과 충돌할 수 있다. 지난 2023년 12월 뉴욕타임스(NYT)는 챗GPT(ChatGPT)를 서비스하는 오픈AI(OpenAI)나 그 관계 회사를 포함해 마이크로소프트(MS)를 저작권 침해를 이유로 소송을 제기했다. 아마도, 대법원 판결까지는 수년이 소요될 것으로 예상된다. 그렇지만, 그 많은 기업들이 데이터를 크롤링하여 사용하는 것은 공정이용(fair use)이라는 판단이 앞섰기 때문으로 보인다. 실상 구글의 북서치(book search) 서비스를 포함해 많은 소송에서 기업들은 공정이용을 근거로 면책받기도 했다. 오픈AI는 2023년 7월 AP 통신과는 별도 라이선스 계약을 체결한 바 있다. 언론사들에게 지급한 비용이 수천억원에 이르는 것으로 추정된다. 이러한 상반되는 다중적 정책이 소송에서 유리하게 작용하지는 않을 것으로 보인다. 이러한 소송은 우리나라도 다르지 않다. 지난 13일 지상파 방송 3사는 네이버에 저작권 침해를 이유로 소송을 제기했다. 소송이야 이유가 있든 없든 제기가 가능한 것이기 때문에 그것을 따지는 것은 무의미하다. 다만, 명확하게 입증할 수 있는 증거를 갖춰야 한다. 그렇지 않을 경우, 해당 기업의 신뢰성에 타격을 가져올 수 있으며, 혁신에 타격을 줄 수 있기 때문이다. 해당 서비스가 새로운 가치를 창출하거나, 비소비적이거나 비향유적인 것이라면 공정이용이 될 것이다. 기업들도 실효성 있는 데이터 정책과 거버넌스를 수립해야 한다. 지키지도 못할 정책들을 외부에 공개하는 것은 오히려 시장의 신뢰성을 저버리는 일이다. 벤처신화의 역사를 썼던 카카오는 알고리즘 조작으로 공정거래위원회로부터 과징금 처분을 받기도 했다. 선도적으로 AI 윤리헌장을 발표했지만, 실상은 다른 모습을 보이고 있다. 내부 거버넌스가 제대로 작동하지 않은 사례다. AI 윤리를 주장하는 기업의 진면목은 아닐는지 우려스럽다. 외부에 공시된 AI 정책이 제대로 작동하고 있는지 의문인 이유이다. 법적 강제력이 없는 AI 윤리의 한계를 보여준다. 하나를 보면, 열을 알 수 있다. 그 하나가 보이지 않는 열을 대변하고 있는지도 모른다. 이런 상황에서 지난해 12월 AI 기본법이 국회 본회의를 통과했고, 이제 하위법령 작업을 한다고 한다. 그렇지만, AI 기본법이 문제정의를 제대로 하지 못한채 입법이 되었다는 점을 인정하려 들지 않는다. 무엇이 문제여서 입법을 하는지, 그 문제를 어떻게 해결하려고 입법을 했는지가 명확히 보이지 않는다. AI가 가져온 수많은 문제를 어떻게 해결해야할지 우려스럽다. 그동안 기업들은 AI 관련 법률이 제정되지 않아 기업투자가 어렵다는 이해하기 어려운 주장을 해왔다. 정부 정책은 법률에 근거하지 않더라도, 부처의 의지에 따라서 충분히 수립이 가능하기 때문이다. 더욱 이해하기 어려운 것은 그렇게 바라던 법이 제정되자, 법에 문제가 많고 규제적이다고 주장한다. AI 기본법에 규제라는 개념은 찾기 어렵다. 오히려, 국민의 안전을 위해 담보할 수 있는 규정을 찾기 어렵다. AI 안전을 위한 세심한 규정이 필요하고, 그 규정은 사업자에게 부담을 줄 수 있기 때문에 명확한 기준을 제시함으로써 예측가능성을 높여야 한다. 그것은 규제가 아닌 헌법상 국민의 안전보장이고 기업의 지속성장과 신뢰의 문제이기 때문이다. 규제와 안전을 혼동하지 않아야 한다. 기업들도 AI가 안전하게 작동할 수 있도록 제대로 된 내부 거버넌스 체계를 갖추어야 한다. AI 기본법이 여러 이유로 개문발차(開門發車)했다. 그렇기 때문에 정부나 국회도 AI 기본법 개정을 위한 논의를 빨리 시작해야 할 이유이기도 하다. A3가 문제가 아니라, 제대로 된 AI 리터러시 없이는 AI가 가져오는 사회문제 해결은 요원하기 때문이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    AI 기본법을 관통하는 데이터 윤리와 AI 정렬
    by 김윤명
    2025.01.26 08:00:00
  • 2025년 새해가 시작되자 올 한해 전개될 글로벌 세상을 예견하는 전망들이 쏟아지고 있다. 전쟁, 테러 등 지정학적 불안의 지속, 고령화 및 양극화에 의한 사회적 갈등 확대, AI 기술 발전에 따른 경제사회적 파장 증가, 미중간 기술경쟁 격화 등 여러 위험과 불확실성 요소들이 등장하고 있다. 그 중에서도 가장 큰 변동요인은 트럼프의 귀환이다. 전 세계가 이미 수년전에 트럼프 1기를 경험했음에도 당시 보여줬던 파격적인 의사결정과 예측불가능한 행동으로 인해 트럼프의 재집권은 글로벌 정치 및 경제질서의 불확실성을 크게 높이고 있다. 미국 우선주의(America First)를 내세우는 트럼프는 미국의 위상과 역할을 강화하는 방향으로 국제정치, 경제, 안보 등 모든 분야에서 기존 질서를 변화시킬 것으로 예견된다. 공공연히 강조해 온 관세장벽 강화는 국제무역질서를 어지럽힐 것이며 이미 한창 진행 중인 글로벌 공급망 개편도 미국의 이익을 내세워 변화를 줄 것이다. 그런데 문제는 기업가적 계산이 우선하는 그의 정치 스타일로 인해 구체적인 변화의 내용을 예측하기가 어렵다는 점이다. 상황과 환경변화에 따라 이익의 기준이 달라지고 선택이 변화할 수 있어 이전에 추진했던 정책들을 다시 일관되게 추진할지도 불확실하다. 트럼프의 독특한 정치스타일은 장기적으로 대규모 투자를 해야 하는 연구개발분야에서 변화가 클 것으로 예상된다. 트럼프는 집권 1기에 많은 정부예산을 사용함에도 단기적으로 가시적인 성과창출이 어려운 연구개발부문에 부정적인 인식을 드러냈다. 연방정부의 연구개발예산 삭감을 시도했을뿐만 아니라 기후변화, 환경, 신재생에너지, 보건의료분야와 같이 대규모 투자가 이루어지지만 회수의 불확실성이 높은 분야, 기업에 비용부담을 주는 분야들에 대한 연구개발정책의 역할에 비판적이었다. 그러나 트럼프의 의사결정 스타일에 비추어 볼 때, 이전에 축소하고자 했던 분야라도 미국의 패권강화에 중요하거나 중국기업과의 경쟁에서 필요한 분야라면 입장을 선회할 수도 있어 예단하지 말고 유연하게 살펴봐야 한다. 또한 모든 산업의 경쟁력을 좌우하게 될 AI분야, 차세대 전략분야인 양자기술분야, 미국의 군사적패권 강화와 직접 연계된 우주, 국방분야에 대한 트럼프의 정책과 투자는 크게 확대될 것이다. 그러나 이들 분야도 효율성과 성과 창출을 강조하는 정부혁신의 영향으로 실용적 연구개발을 강화할 것이며 규제완화를 통해 기업의 신기술 구현과 신산업경쟁력 제고에 집중할 것이다. 반면 기술패권 경쟁국인 중국과의 기술협력 및 기술거래에 대한 트럼프의 통제는 일관되고 더욱 강화될 것이다. 트럼프의 중국 압박은 우리에게 기회가 될 수 있지만 한편으로는 더 큰 위험으로 작용할 수 있다. 트럼프의 압박이 중국을 기술자립화에 매진하게 해 오히려 중국의 기술수준과 확보 속도를 높이는 자극제 역할을 할 수 있기 때문이다. 이미 중국은 AI, 양자, 바이오, 우주, 이차전지 등에서 우리의 기술수준을 넘어 미국과 견줄 수 있는 단계인 것으로 평가받는다. 대외적으로 높은 불확실성 속에서 국내 상황은 정치적 불안정성이 높고 경제도 흔들려 올해 국내 경제성장률은 1%대로 낮아질 전망이다. 국가경제를 지탱해 온 반도체산업의 기술경쟁력이 흔들리고 자동차, 조선, 화학, 이차전지 등 주력산업들의 글로벌 시장경쟁력은 중국에 추월당하거나 위협받고 있다. 국내기업들의 경쟁력 하락은 대내외적 환경이 어려운 점에 일정 부분 기인하지만 근본적인 원인은 기술경쟁력의 부족이다. 지금의 혁신경제체제에서 개별기업의 기술경쟁력은 기업만의 역량이 아닌 정부, 대학, 연구기관 등 국가혁신주체들의 혁신역량과 연구생태계의 토대 위에서 성장하고 발전한다. 국내기업과 산업경쟁력이 하락하고 있다는 것은 국가혁신체계의 혁신역량이 떨어지고 있다는 것과 연계된다. 트럼프 시대의 높은 불확실성에 대응하기 위해서는 트럼프 정책에 단답식으로 접근하는 것이 아니라 복합적이고 종합적인 과학기술혁신전략이 필요하다. 트럼프 스타일에 유리한 국내산업을 우선적으로 지원하면서 이후 포스트 트럼프시대의 신산업 경쟁력을 고려한 전략적 균형을 찾아야 한다. 특히 미국 주도의 AI시대로의 혁명적 전환에 발빠르게 대응할 수 있도록 AI 혁신생태계에 대한 진단과 혁신전략을 재검토해야 한다. 다른 선진국들에 비해 부족한 인재와 자원을 극복하기 위해 산학연과 정부가 공동협력하는 한국형 혁신체계를 구축하기 위한 시스템 혁신도 시급하다. 나아가 단단한 산학연 혁신생태계에서 창출된 성과가 글로벌 신시장과 신산업을 선도하는 결실을 맺기 위해서는 국내시장의 혁신경쟁력을 높이기 위한 조치가 먼저 필요하다.
    트럼프 2기, 불확실성 대응한 과학기술혁신전략은?
    by 이민형
    2025.01.12 11:24:25
  • AI 신뢰성(Trustworthiness)에 대한 다양한 논의가 이루어지고 있다. 신뢰성이 있다는 것은 완전하지는 않지만 어느 정도 수용 가능하거나 관리 가능한 상태를 유지하는 것을 의미하며, 이는 AI 안전(Safety)이 확보되고 있다고 볼 수 있다. 안전과 신뢰는 개념적으로 다르지만 정책적인 목표는 동일하다. AI 신뢰성은 궁극적으로 AI를 활용하는 이용자를 대상으로 한다. 여기에는 AI 기본법상 영향을 받는 자를 포함하며 이들은 AI 전문가가 아닌 평범한 일상을 영위하는 자연인이다. AI는 본래 의도했던 편리함과 이익을 위해 사용된다는 전제를 바탕으로 논의를 시작해야 한다. 이는 무념무상의 상태가 아니라 지극히 개인적인 상황에서 발생한 문제를 어떻게 해결할 것인지에 대한 가정을 포함한다. 나아가 문제가 발생하지 않도록 하거나 관리 가능한 상태를 유지하는 것 역시 중요한 논점이다. AI 신뢰성이 확보된 상황에서는 누구라도 AI를 이용함에 있어 안전한 상태가 유지될 것이라는 기대를 가질 것이다. 신뢰성의 주요 요소로는 공정성, 투명성, 안전성, 책임성, 설명 가능성, 프라이버시 보호 등이 있으며 이 요소들이 전부 또는 일부 지켜지지 않을 경우 이용자는 해당 AI에 대해 신뢰할 수 없다고 평가하게 될 것이다. 국내외적으로 AI 신뢰성을 위한 다양한 요소가 나열되고 있지만 이러한 요소들이 정합성을 갖추고 있는지는 의문이다. 이는 기구나 단체의 특성에 따라, 각자의 영역에서 우선순위에 놓인 요소를 중심으로 제시되고 있기 때문으로 보인다. 다만, 신뢰가 지켜지지 않는다는 추상적 개념은 지양될 필요가 있다. 이는 책임의 영역에 관한 것이며 관리 가능하거나 수용 가능한 상태의 신뢰성이라면 회복력이나 치유 상황도 고려되어야 한다. 설명 가능하지 못한 상황이 발생할 경우, 해당 시스템에 설명 가능한 모듈을 포함하거나 사람이 설명할 수 있도록 조치한다면 이는 관리된 상황으로 볼 수 있다. 투명성에 대해서도 마찬가지로 데이터 윤리 측면에서 데이터의 출처, 유형 등에 대한 정보 공개가 요구된다. 물론, 데이터의 성질에 따라 프라이버시와의 연관성이 존재한다. 이처럼 신뢰성 요소는 개별적으로 작동할 수도 있지만 상호 연계적으로 작동하기 때문에 구분하기 쉽지 않다. 따라서 신뢰성에 대한 이해는 절대적인 평가로 보기 어렵다. 중요한 것은 신뢰성이 저하된 상태인지, 또는 어떤 요소가 부족한 것인지 평가할 수 있는 기준을 명확히 제시하는 것이다. AI 윤리와 마찬가지로 신뢰성이라는 개념 자체가 상당히 추상적이고 주관적이기 때문이다. 만약 신뢰성이 없다는 이유로 책임성이 부재하다고 평가하거나 법적 책임을 묻는다면 쉽게 인용되기 어려울 것이다. 오히려 윤리적 비난 가능성에 따른 책임에 한정할 될 필요가 있다. 이처럼 AI 신뢰성에 대한 책임을 묻는 것은 법적 측면에서 쉽지 않은 일이다. 그러나 신뢰성 요소에 대한 이슈와 법적으로 대응 가능한 상황을 준비하는 것은 AI로 인해 발생할 수 있는 사고에 대한 대응과 책임 명확화를 위해 필요하다. AI 신뢰성에 대한 법적 책임과 기준은 명확히 제시되지 않았지만 EU AI법에서 제시된 4가지 위험 수준에 따른 투명성 확보 의무화를 참고할 수 있다. EU AI법은 사업자의 투명성을 강조하며, 이는 AI에 대한 신뢰 가능성을 높이고 안전을 위한 조치로 볼 수 있다. 또한 AI 신뢰성은 AI 기술이 추구하는 인간의 가치를 높이는 것이다. 안전이란 물리적, 심리적, 사회적으로 평온한 상태를 의미한다. AI를 이용하는 과정에서 신뢰할 수 있다고 여겨질 경우 해당 서비스를 이용할 것이다. 신뢰는 안전을 위한 관계 형성으로 볼 수 있다. AI가 추구하는 가치는 이용자가 해당 서비스나 제품을 안전하게 이용하도록 하는 데 있다. 신뢰 관계를 형성함으로써 안전한 사회를 마련할 수 있기 때문이다. AI 윤리는 신뢰성을 보완하는 역할을 하며, AI 생애주기 전반에 걸쳐 적용되어야 한다. 윤리는 법과 제도의 부족한 부문을 채워가는 사회적 가치 규범이기 때문이다. 국가는 거버넌스 차원에서 안전을 다룰 필요가 있다. 안전을 강조하는 것은 규제적 속성으로 보일 수 있으나, 이를 단순히 규제로 단정 짓는 것은 곤란하다. AI가 어떻게 발전하고 어떤 결과를 도출할지 예견하기 어렵기 때문이다. 사전 예방 원칙에 따른 정책적 목표가 포함되어야 한다. 서비스나 제품의 안전성을 확보하는 것은 소비자기본법이나 제조물책임법의 입법 목적에서도 찾아볼 수 있다. AI기본법은 AI 신뢰성 확보를 위한 다양한 정책 규정을 포함하고 있다. 신뢰성 인증, 영향 평가, 생성형 AI의 표시 등이 그 예이다. 이는 AI의 내재적 한계와 기술적 한계를 극복하거나 예기치 못한 기술적 안전을 확보하기 위한 것이다. AI 신뢰성을 논의함에 있어 신뢰성과 안전성을 구분하고 그 관계를 검토하는 작업이 필요하다. AI 기본법에는 안전에 관한 규정이 없으나 AI 신뢰성이 요구하는 신뢰 수준은 AI를 이용하는 국민의 안전을 위한 것이어야 한다. 신뢰성이라는 추상적 개념은 법적으로 정의 내리기 쉽지 않으므로 AI 윤리 측면에서 다뤄져야 한다. AI 기본법은 이러한 한계를 인지하고 있으며 신뢰성 확보를 위한 정책 규정을 두되 별도의 처벌 규정을 두지 않고 있다. AI 신뢰성을 통해 얻는 가치는 국민의 안전이다. 신뢰성이 추상적인 개념이지만, 이를 명확히 할 수 있는 원칙과 기준을 제시함으로써 사업자의 예측 가능성을 높일 수 있을 것이다. 이는 AI 기본법에 기술 진흥과 국민 안전을 위한 균형 잡힌 정책이 담겨야 하는 이유이기도 하다. AI를 이용한 사회문제의 해결, 리터러시의 확산 등을 포함하는 AI 기본법 개정 논의는 빨리 시작할수록 좋을 것이다. AI 기본법안은 국회 본회의 의결만 남겨두고 있다.
    무엇을 위한 AI 신뢰성인가?
    by 김윤명
    2024.12.28 07:05:00
  • 네이버가 소버린 AI(Sovereign AI)를 주장하고 있다. 왜 그랬을까? 이를 곰곰이 생각해 보면, 내부에서 검색과 AI가 충돌하고 있는 것은 아닐까라는 생각이다. 합리적인 의심은 이렇다. 최근 발표된 네이버의 AI 전략은 서비스에 AI를 융합하는 모양새다. 그동안 네이버는 저작권을 제한하는 데이터마이닝(TDM)의 도입하는 저작권법 개정에 부정적이었다. 누구나 쓸 수 있도록 데이터가 개방되면, 네이버는 한글에 대한 독점력을 유지하기는 어려울 것이기 때문으로 이해된다. 경쟁관계에 있는 구글이나 OpenAI와 같은 글로벌 기업들도 한글 데이터에 대한 제한없는 이용이 가능해지기 때문이다. 검색을 위해서는 데이터를 제한없이 크롤링할 수 있도록 저작권이 제한되어야 하지만, AI를 위해서는 데이터를 개방하면 글로벌 기업들에게 경쟁력을 빼앗길 수 있기 때문에 개방하기 어렵다는 것이다. 여기에서, 검색과 AI 부문이 충돌하게 된다. 이는 구글도 다르지 않다. AI 모델 학습은 지속적인 데이터가 필요하다. 그동안 네이버는 적잖은 비용을 투자했지만, 뚜렷한 성과를 보이지 못하고 있다. 앞으로도 마찬가지다. 글로벌 기업의 수조원 단위의 R&D와 비교할 수 없기 때문이기도 하다. 더군다나, 네이버의 경쟁력인 한글화에 있어서도 글로벌 AI 서비스에 경쟁우위에 선다고 보기도 어렵다. 글로벌 기업들이 제공하는 서비스에서도 한글 정보는 이미 네이티브를 넘어서고 있다. 앞으로, 더 넘어설 가능성이 크다. 그동안 네이버 검색은 한글을 기반하여 성장해 왔다. 그 덕분에 엠파스가 사라지고 야후도 국내시장에서 철수했다. 현재 검색시장의 경쟁은 네이버의 독점 내지 과점으로 이어졌다. 구글의 점유율도 상당히 높아지고 있다. 이는 경쟁을 통한 서비스 향성과 소비자 후생이 높아질 수 있다는 점에서 긍정적이다. 글로벌 시장에서 한글은 특정 기업이 독점적인 마케팅을 주장할 가치가 아니다. 글로벌 시민 모두가 누려야 할 가치이다. 이러한 가치를 국내 기업이라고 오로지 할 수 있는 것은 아니다. 글로벌 시민이 한글을 제대로 익히고, 제대로 된 한글정보를 얻을 수 있도록 해야 한다. 그것이 대한민국과 네이버를 포함한 우리기업의 책무이다. 네이버이기 때문에 한글을 독점해야 한다는 논리는 글로벌 시장에 진출하고자 하는 기업의 전략으로는 옹색하다. 소비자는 자신의 의지에 따라 네이버를 쓰고, 구글을 쓰고, 네이버 쇼핑을 이용하거나 11번가를 선택할 수 있다. 멀티호밍(multihoming)이 가능하다. 이는 독점에 대한 네이버의 대응논리이기도 하다. 소비자는 합리적인 선택을 하기 때문에 필요에 따라 다른 플랫폼을 이용할 수 있다는 것이다. AI는 더욱더 그러하다. 챗GPT나 제미나이(gemini)와 같은 글로벌 AI 서비스의 한글은 우리 국민들이 쓰기에도 어색함이 없다. 부족하더라도, 그 내용을 극복할 수 있는 문해력이 있기 때문이다. 그렇지만, 해외 시민들이 한글을 쓸려고 할 때 문제는 없을까? OpenAI, MS, 구글 등 수많은 AI기업들이 한글 서비스를 확장하고 있다. 그렇지만, 여전히 어색하고 의미와 다른 정보가 출력된다. 이 책임은 기본적으로 그 회사에 있다. 그렇지만, 그 책임을 회사에 돌리고 부정확한 한글정보가 노출되지 않은 것에 불평만 할 것인가? 그 사이에 우리나라의 문화를 이해하고 향유하기 위해 한글정보를 얻고자하는 글로벌 시민들은 한글과 대한민국에 대한 신뢰를 상실하지 않을까? 이러한 점도 고려돼야 한다. 네이버는 소버린 AI를 주장한다. 좀더 정확히는 한글 데이터 주권을 주장하고 있는 것으로 보인다. 우리가 아니면, 한글을 지켜낼 수 없다는 주장이다. 좀 어색하다. 그런데, 네이버는 중동, 사우디아라비아와 같은 시장에서 소버린 AI를 통해 현지 언어와 문화에 맞는 AI 솔루션을 제공하며 글로벌 진출을 가속화하고 있다. 네이버를 응원한다. 그렇지만, 소버린 AI에 한글을 볼모삼는 것은 지극히 잘못된 마케팅이다. 이는 다중적이거나, 양면적이기도 하다. 한 가지 의문, 네이버는 어디에서 학습데이터를 소싱하고 있을까? 추측컨대, 모르긴 몰라도 크롤링이 가능한 모든 정보가 포함돼있을 것이다. 이용자의 노력의 산물인 블로그나 카페와 그리고 인터넷에 무수하게 공개된, 그렇지만 여전히 저작권 있는 개인의 정보였을 것이다. 그 안에는 KINDS나 기사를 제공하는 언론사의 수많은 기사가 포함되어 있을 것으로 생각된다. 권리자단체에서 데이터 출처 공개를 요구했을 때, 답할 수 없었던 이유이기도 할 것이다. EU AI법이나 미국의 저작권법 개정안에서는 학습데이터에 사용된 저작권 관련 정보를 충분히 공개하도록 하거나 저작권청에 제출토록 의무화하고 있다. 어떤 저작물이 사용되었는지 공개되어야 한다는 의미이다. 이용하는 데이터가 윤리적이어야 한다는 것이고, 그렇지 않을 경우 신뢰할 수 없기 때문이기도 하다. 어떤 데이터를 사용했는지를 공개한다면, AI 사업자는 해당 서비스에 대해 신뢰할 수 있는 결과를 만들려고 법적, 윤리적인 노력을 할 것이다. 적어도, 소버린 AI를 주장하려면 권리자들에 어떤 보상을 할 것인지, 데이터 배당이나 데이터 보상에 대해 고민했어야 한다. 저작권은 권리자의 전가의 보도는 아니지만, 데이터를 아무런 보상없이 이용하면서 그 결과에 대해서까지 독점하는 것은 이치에 맞지 않다. 네이버 회원이기도 한 일반 이용자로서 저작권자에 대한 데이터배당은 고민해야할 것이다. 플랫폼 내에서 그 가치는 산정할 수 있을 것으로 보인다. 데이터 하나하나에 고유의 id값이 부여될 것이기 때문이다. 기업이 권리나 필요를 주장하기 위해서는 합리적이고, 윤리적인지도 검토돼야 한다. 기업의 주장은 그래야 한다. 적어도 정책적인 사항에 대해서는 마케팅과는 달라야 한다. 알고리즘 조작을 앞세워 자사의 이익을 극대화하고 소비자의 후생을 저해하는 행위를 하면서 자율규제를 주장하는 플랫폼사업자들을 신뢰하기는 어렵다. 공정거래위원회로부터 수백억원대의 과징금 처분을 받고, 고등법원에서 패소한 네이버의 행태를 보면서, 소버린 AI를 주장하는 것은 표리가 부동한 지금 대한민국의 현실과도 맞닿아있다면 나만의 우려인가? 특정 기업을 몰아주거나 반대하자는 것이 아니다. 필자는 국회 보좌관 시절, 모시던 의원을 설득하여 네이버의 데이터주권을 위한 국회 세미나를 4차례 정도 기획하여 진행한 바 있다. 최근 구글의 디지털책임위원회 위원으로서 구글의 사회적 책임(responsibility)에 대해 논의하기도 했다. AI만이 공정하고 투명해야 하는 것이 아니다. 그 기업이 사회적 책임을 다하고 있는지를 먼저 살펴야 한다는 것이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    '소버린 AI'는 왜 나왔을까?-네이버 AI와 검색의 충돌
    by 김윤명
    2024.12.22 08:47:09
  • 넷플릭스의 ‘흑백요리사’는 재야의 고수 ‘흑수저’ 셰프들이 최고의 스타 셰프 ‘백수저’들에게 도전장을 내밀며 치열하게 경쟁하는 내용으로 전세계 시청자들을 사로잡았다. 현재도 프로그램에 출연했던 셰프들이 방송과 유튜브에 출연하며 계속 인기를 이어가고 있다. 시즌1의 인기에 힘입어 시즌2 제작도 확정되었다. 흑백요리사에 대한 인기는 셰프들이 운영하는 식당으로 이어졌다. 방영 초기부터 식당 리스트가 퍼져나갔고, 대부분의 식당들은 이미 예약이 어려울 정도로 그 명성을 이어가고 있다. 흑백요리사 우승자의 파스타바는 예약에 11만명이 몰리며 예약 앱이 다운되기도 했다. 흑백요리사는 잘 알려진 유명 셰프들을 ‘백수저’로, 그리고 이들에게 도전하는 무명 셰프들을 ‘흑수저’로 계급을 나눠 서로 경쟁 시켰다. ‘흑수저’셰프들은 대부분 유명하지 않은 재야의 고수들이지만, AI는 이미 그들이 명성을 얻고 있었음을 알고 있었다. 흑수저 1라운드 생존자 20명 중 11명이 국내 최대 맛집 플랫폼 식신의 별 맛집(스타 레스토랑)에 선정된 매장이었는데, 레스토랑을 운영하지 않은 5인을 제외하면 정확도는 약 73%에 이른다. 식신 별 맛집은 국내 약 75만개의 음식점 중 약 0.9%인 6000여 개에 인증을 수여한다는 점에서 비춰봤을 때 이미 인기있는 셰프들이었던 것이다. 나폴리 맛피아의 ‘비아 톨레도 파스타 바(1스타)’를 비롯해 트리플 스타의 ‘트리드(1스타)’, 요리하는 돌아이의 ‘디핀(1스타)’ 등 상위권 성적을 기록한 셰프의 레스토랑과 야키토리왕의 ‘야키토리 묵’(1스타), 영탉의 ‘남영탉’(1스타), 장사천재 조사장의 ‘을지로 보석’ (1스타), 철가방 요리사의 ‘도량’(더테이블), 셀럽의 셰프의 ‘부토’ (1스타), 고기 깡패의 ‘군몽’ (더테이블), 간귀의 ‘에다마메’(더테이블) 등 대부분의 레스토랑은 이미 대중에게 주목받고 있었다. 식신은 모바일앱과 웹사이트를 통해 국내외 음식점 정보와 리뷰를 제공하는 맛집 플랫폼으로 월간 방문자수(MAU)는 약 3~400만명에 이른다. 이중 사용자들의 활동 데이터를 AI로 심층적으로 분석해 가장 사랑받은 맛집을 ‘식신 별 맛집(스타 레스토랑)’으로 선정해 발표하고 있다. 2024년 별 맛집은 총 6,007개로 △3스타: 그 분야 최고의 레스토랑 △2스타: 지역에 방문하면 가봐야 할 레스토랑 △1스타: 인기 있고 추천할 만한 레스토랑 △더 테이블: 방문객들의 만족도가 높은 레스토랑으로 구분된다. 매경헬스에 따르면 소비자들이 맛집 정보 수집시 가장 많이 활용하는 경로는 검색포탈·블로그(73%)였고 이어서 SNS(48%), 방송(24%) 등의 순이다. 그러나 94%의 소비자들이 추천 맛집을 갔을 때 실망했고, 가장 실망한 이유로 '맛(83%)’을 들었다. 소비자들이 생각하는 맛집의 조건으론 '음식의 맛(71%)'이 압도적으로 1위를 차지했다. 새롭게 발견한 맛집만큼 우리에게 반가운 것은 없다. AI가 우리의 마음을 읽어서 신뢰성 높은 정확한 맛집을 알려주는 시대가 이미 도래했다. 앞으로는 열심히 검색한 맛집에 가서 실망하지 않고 맛있는 음식을 온전히 즐길 수 있기를 희망해 본다.
    흑백요리사와 AI
    by 안병익
    2024.12.05 10:36:59
  • 넷플릭스의 ‘흑백요리사’는 재야의 고수 ‘흑수저’ 셰프들이 최고의 스타 셰프 ‘백수저’들에게 도전장을 내밀며 치열하게 경쟁하는 내용으로 전세계 시청자들을 사로잡았다. 프로그램에 출연했던 셰프들이 방송과 유튜브에 출연하며 계속 인기를 이어가고 있고, 시즌1의 인기에 힘입어 시즌2 제작도 확정됐다. 프로그램의 인기는 출연 셰프들이 운영하는 식당으로 이어졌다. 방영 초기부터 식당 리스트가 퍼져나갔고, 대부분의 식당들은 이미 예약이 어려울 정도로 그 명성을 이어가고 있다. 흑백요리사 우승자의 파스타바는 예약에 11만명이 몰리며 예약 앱이 다운되기도 했다. 흑백요리사는 잘 알려진 유명 셰프들을 ‘백수저’로, 그리고 이들에게 도전하는 무명 셰프들을 ‘흑수저’로 계급을 나눠 서로 경쟁 시켰다. ‘흑수저’셰프들은 대부분 유명하지 않은 재야의 고수들이지만, AI는 이미 그들이 명성을 얻고 있음을 알고 있었다. 흑수저 1라운드 생존자 20인 가운데 11인이 국내 최대 맛집 플랫폼 식신의 별 맛집(스타 레스토랑)에 선정된 매장이었는데, 레스토랑을 운영하지 않은 5인을 제외하면 정확도는 약 73%에 이른다. 식신 별 맛집은 국내 약 75만개의 음식점 중 약 0.9%인 6000여 개에 인증을 수여한다는 점에서 비춰봤을 때 이미 인기있는 셰프들 이었던 것이다. 나폴리 맛피아의 ‘비아 톨레도 파스타 바(1스타)’를 비롯해 트리플 스타의 ‘트리드(1스타)’, 요리하는 돌아이의 ‘디핀(1스타)’ 등 상위권 성적을 기록한 셰프의 레스토랑과 야키토리왕의 ‘야키토리 묵’(1스타), 영탉의 ‘남영탉’(1스타), 장사천재 조사장의 ‘을지로 보석’ (1스타), 철가방 요리사의 ‘도량’(더테이블), 셀럽의 셰프의 ‘부토’ (1스타), 고기 깡패의 ‘군몽’ (더테이블), 간귀의 ‘에다마메’(더테이블) 등 대부분의 레스토랑은 이미 대중에게 주목받고 있었다. 식신은 모바일앱과 웹사이트를 통해 국내외 음식점 정보와 리뷰를 제공하는 맛집 플랫폼으로 월간 방문자수(MAU)는 약 3~400만명에 이른다. 이중 사용자들의 활동 데이터를 AI로 심층적으로 분석해 가장 사랑받은 맛집을 ‘식신 별 맛집(스타 레스토랑)’으로 선정해 발표하고 있다. 2024년 별 맛집은 총 6007개로 ▲3스타: 그 분야 최고의 레스토랑, ▲2스타: 지역에 방문하면 가봐야 할 레스토랑, ▲1스타 레스토랑: 인기 있고 추천할 만한 레스토랑, ▲더 테이블: 방문객들의 만족도가 높은 레스토랑으로 구분된다. 매경헬스에 따르면 소비자들이 맛집 정보 수집시 가장 많이 활용하는 경로는 검색포탈·블로그(73%)였고 이어서 SNS(48%), 방송(24%) 등의 순이다. 그러나 94%의 소비자들이 추천 맛집을 갔을 때 실망했고, 가장 실망한 이유로 '맛(83%)’을 들었다. 소비자들이 생각하는 맛집의 조건으론 '음식의 맛(71%)'이 압도적으로 1위를 차지했다. 새롭게 발견한 맛집만큼 우리에게 반가운 것은 없다. AI가 우리의 마음을 읽어서 신뢰성 높은 정확한 맛집을 알려주는 시대가 이미 도래했다. 앞으로는 열심히 검색한 맛집에 가서 실망하지 않고 맛있는 음식을 온전히 즐길 수 있기를 희망해 본다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    '흑백요리사' 먼저 찾은 AI
    by 안병익
    2024.12.01 08:00:00
  • 알고리즘이 고도화하면서 여러 가지 문제점이 복합적으로 작용하기 때문에 소비자 안전을 강조하게 된다. 알고리즘의 조작을 통한 차별이나 필터버블에 의한 편향된 결과의 지속적인 제공은 다양성이 배제된 의식의 편향으로 이어질 수 있다. 인공지능(AI) 검색은 인터넷검색과 달리, 일부분의 데이터에 기반해 생성한 결과를 제공하기 때문에 인터넷이나 인터넷검색의 다양성이 훼손될 가능성도 크다. 데이터의 편향에 의한 결과의 신뢰성을 담보하기 어려운 경우 등 AI 모델이 갖는 내재적인 한계가 원인으로 지목된다. 또 알고리즘을 학습시키거나 서비스에 적용하는 과정에서 개발자 등의 의식적이거나 무의식적인 개입이 이루어질 가능성도 배제하기 어렵다. 일례로 네이버, 쿠팡, 카카오모빌리티 등 플랫폼사업자들의 알고리즘 조작은 대표적인 소비자 안전을 해치는 사례이다. 안전은 물리적인 위해로부터의 안전만이 아니라 합리적인 상황을 벗어나지 않는 의사결정을 내릴 수 있는 평온함의 유지나 개인의 프라이버시를 보호받을 수 있는 상황을 포함한다. 또 소비자의 후생이나 권리가 침해당하지 않는 상태로서 소비자 안전도 포함된다. 알고리즘에 의해 이루어지는 불공정행위는 직간접적으로 소비자 권리를 침해하는 결과를 가져오기 때문이다. AI 안전권에 대한 논의가 필요한 이유이기도 하다. 우리는 서비스나 기술이 시장에 출시될 때 안전성을 테스트했을 것이라는 신뢰에 따라 해당 서비스나 제품을 이용하거나 소비한다. 지금은 AI의 안전성에 대한 신뢰도가 높은 것으로 보이지는 않는다. 국회에 발의된 15개 AI 관련 법안이 기본적으로 담고 있는 가치는 ‘신뢰성있는 AI’에 관한 규정이다. 그만큼 AI의 신뢰성에 대한 문제인식이 있다는 방증이기도 하다. 그럼에도 불구하고 신뢰성을 저해하는 행위에 대한 규정은 찾기 어렵다. AI 안전은 규제가 아니다. 헌법이 보장하는 국민의 행복추구권의 한 유형인 기본적인 인권이기 때문이다. 신뢰는 서비스제공자의 책임있는 태도에서 출발한다. 몇몇 사례이지만 플랫폼사업자들의 의도적인 알고리즘 왜곡이나 조작은 신뢰를 얻기 어렵다. AI 기술은 소비자의 편의를 크게 향상시키지만 동시에 신뢰와 안전에 대한 문제를 제기한다. 특히 AI가 복잡한 알고리즘으로 작동하는 경우 소비자는 그 작동 방식에 대해 충분한 정보를 알 수 없다는 ‘블랙박스’ 문제에 직면한다. 이는 서비스의 신뢰성에 영향을 미치며 신뢰 상실은 소비자 피해로 이어질 수 있기 때문에 소비자 보호를 위해 AI의 안전성과 투명성을 강화하는 정책이 필요하다. 물론 AI를 이용하는 과정에서 나타나는 여러 가지 법률적 윤리적 이슈의 최종적인 책임은 해당 서비스를 이용하는 소비자에게 미치는 영향의 정도에 따라 달리할 수 있을 것이다. 알고리즘에 의한 권력의 균형추가 플랫폼사업자 중심으로 재편되는 상황에서 소비자 주권에 대한 논의는 필수적이다. 그동안 AI 관련된 논의에 있어서도 ‘소비자 주권’과는 멀었다. AI관련 정책의 수립과정에서 소비자가 직접 개입하거나 의견을 제시할 수 있는 기회가 부족했다. 실제 알고리즘을 소비하는 소비자 권리는 누가 보호할 것인지 묻지 않을 수 없다. 개별적 소비자의 힘은 크지 않다. 알고리즘으로 인한 문제는 소비자 스스로 해결하기 어려운 문제이다. 적극적으로 소비자 단체가 나서야 할 이유이다. 알고리즘 공정성을 위해 소비자 단체에 의한 모니터링을 강화하거나 ‘소비자 권리장전’을 제정하는 것도 필요하다. 우리 세대가 AI 안전에 대한 기반을 닦지 못할 경우 다음 세대의 안전을 담보하기는 더욱 쉽지 않을 것이다. 서비스제공자는 소비자 주권에 대한 적극적인 이해와 그에 따른 서비스정책을 마련하는 것이 바람직하다. 다양한 방법을 통해 AI 서비스 사용 경험에 대한 불만 접수 시스템을 통해 소비자 의견을 수렴하고 알고리즘 개선에 반영하는 절차를 마련할 수 있을 것이다. 제대로 된 서비스 정책을 수립하지 못할 경우 더 큰 규제에 직면할 수 있다는 점은 ‘확률형 아이템 표시제도’ 등 여러 사례를 통해 확인된 것이기도 하다. 소비자 안전권은 헌법상 행복추구권에 근거한 파생적 기본권이다. 안전에 대해서는 국가의 책무이며 그 원인이나 결과가 어떤 것이든 국가는 국민인 소비자의 안전을 위한 일련의 책무임을 잊지 않아야 한다. 이를 위해 정부는 알고리즘으로 인해 발생하는 여러 가지 문제점을 조망하고, 그러한 문제가 소비자의 후생을 해치는 경우에 어떻게 소비자 권리를 구제할 것인지 정책방향을 제시할 필요가 있다. 입법적으로는 AI 기본법 체계내에서 다룰 것인지, 기존의 소비자기본법이나 정보통신관련 법제 등의 정비를 통하여 소비자 권리를 구체화할 것인지 여부이다. 사업자들에게도 명확한 기준을 제시함으로써 예측가능성을 높일 수 있을 것이다. 알고리즘 조작에 대한 일련의 사건에 대해 공정거래위원회가 큰 역할을 해왔다는 점에서 공정거래위원회가 부합하지만 EU AI 기구(AI office) 처럼 별도의 독립적인 AI 전문규제기관을 두는 방안도 고려될 필요가 있다. 권력화되는 알고리즘에 대응하고 안전을 지키기 위해서는 지속가능한 안전 정책이 요구된다. 최근 ‘AI안전연구소’가 출범했다. 연구소가 정책연구소인 것은 안전관련 정책이나 법제도 측면에서 우리사회의 안전망을 구축할 수 있는 씽크탱크로서 역할을 기대하기 때문일 것이다. 알고리즘이 우리 사회의 안전을 위협하는 요인은 복합적이고. 다양하다. 다양한 영역과의 협력적 거버넌스 체계를 갖추는 것이 필요하다. 하나의 아이디어이지만 AI 안전의 범위를 물리적이고 기계적인 안전이 아닌, 사회적 안전까지도 확장하여 최종적인 소비자인 국민의 안전을 위한 거버넌스 체계로 확대해나가는 것이 바람직하다. 다만 알고리즘의 문제는 알고리즘으로 풀어야한다는 낭만적인 생각은 버려야 한다. 인간이 주체적으로 개입하여 해결해야 할 과제임을 명심해야 한다.
    알고리즘과 소비자 안전
    by 김윤명
    2024.11.24 11:53:38
  • 인공지능이 검색분야에 큰 영향을 미치고 있다. 인터넷에 공개된 정보의 요약과 해당 페이지의 링크(URL)를 제공하는 인터넷검색과의 차별화를 가져오고 있다. 인공지능(AI) 검색은 결과물을 AI 시스템이 생성하여 제공한다는 점에서 인터넷검색과 차이가 있다. 또한, AI 검색결과는 이용자가 입력한 검색 프롬프트의 맥락을 분석하여 그에 적합한 정보를 제공한다. 검색결과는 AI가 웹사이트 정보를 분석하여 검색 맥락에 맞게 생성하기 때문에 그 성격은 편집물로 볼 수 있다. 다만, 내용을 구성하는 부분들이 맥락에 따라, 일정한 체계를 갖고 있다는 점에서 편집저작물로서 인정받을 수 있다. 물론, 전체적으로 하나의 창작적 표현으로 볼 경우라면 편집물과 별도로 창작적 표현으로 볼 여지도 충분하다. 이 경우, AI 검색은 이용자에게 편집물 또는 완성된 창작적 표현으로서 제공된다. AI검색은 다양한 정보의 편집이지만 타인의 저작물이나 정보가 포함된 것이라는 점에서 ‘인용’의 방식으로 편집된다. 저작재산권 제한규정인 인용에 있어서, 저작권법은 구체적인 방법에 대해 기준을 제시하지는 않고 있다. 인용이 될 수 있는 방식, 즉 출처표시가 가능하다면 그 방식에 있어서 문제될 것은 아니다. 따라서, 링크방식으로 이루어지더라도 저작권법상 인용요건을 갖춘 것으로 볼 수 있다. 검색결과의 편집은 이용자의 요구에 의하여 알고리즘에 의하여 이루어진다. 기술적으로 이루어지기 때문에 내용통제가 이루어지지 않는다. 일반적인 인터넷검색도 필터링과 같은 기술적 방식이외에 검색결과의 내용에 대한 조작은 쉽지 않다. 검색결과의 조작이 AI 모델이나 검색엔진 차원에서 문제되는 사항이라면, 이는 서비스제공자의 책임 영역에서 이루어진 것으로 제공자 책임이다. 다만, AI 검색은 결과물에 대해 제공자는 어떤 내용의 검색을 요구받는지 알기 어렵다. 사후적으로 문제되는 내용에 대해 확인이 가능할 뿐이다. 그렇기 때문에 AI 검색에 있어서 그 결과물에 대한 책임은 일반적인 온라인서비스제공자(OSP)와 같이, 면책될 수밖에 없다. 기술적으로 AI검색과 인터넷검색은 여러 가지 측면에서 다르지만, 사실상 법적 책임에 있어서는 검색의 기능과 역할을 고려할 때 면책되도록 하는 것이 바람직하다. 검색이 정보의 완결성을 높이고, 공익적 역할을 한다는 점에서 엄격한 책임을 지운다면 인터넷상의 다양한 정보에 대한 접근 등 알권리가 훼손될 수 있기 때문이다. 다만, 검색결과에 대한 관여를 어떻게 볼 것인지에 따라 책임의 결과가 달라질 수는 있다. 결과를 의도적으로 조작하는 경우와 사회적 가치를 높이기 위해 조정하는 경우에 대한 가치판단의 차이가 있기 때문이다. OSP의 관여는 유해한 정보, 공서양속에 위배되는 정보, 개인정보 등 법에서 금지되는 정보는 필터링될 수 있도록 조정(tuning)이 이루지고 있기 때문에 이러한 법적 의무 이행에 따른 관여는 문제라고 보기 어렵다. 또한, 저작권법은 OSP에게 일반적인 모니터링 의무를 금지하고 있다는 점도 고려되어야 한다. 검색결과에 대한 모니터링을 한다는 것은 일종의 검열이 될 수 있기 때문이다. 다만, 오랜 기간에 걸처 인터넷검색이 다양한 평가를 받았던 것과는 다른 매커니즘으로서 AI 검색의 가치는 좀 더 살펴볼 필요가 있다. 이처럼, AI 검색의 법률 문제에 대한 검토는 검색결과와 검색서비스를 구축하는 과정에서 나타날 수 있는 문제는 없는지 살펴보는데 있다. 결론적으로, AI 검색은 인터넷검색과 차이점이 있으며, 이는 검색결과에 대해 서비스제공자의 개입이 있다는 점이다. 물론, 개입이 악의적으로 왜곡하거나 편향을 부추기는 것은 아니라는 점에서 AI 검색의 신뢰성을 배재할 수는 없다. 다만, 결과에 있어서 제공되는 링크가 사실에 기반한 것이 아닌 경우가 발견된다. 즉, 검색결과나 같이 제공되는 링크에 대한 신뢰성을 담보하기 어려운 경우가 있다. 이러한 점은 기술적으로 해결해가는 과정이고, 검색증강생성(RAG) 방식을 통해 검색결과의 신뢰성을 높이고 있지만 여전히 불충분한 면이 발견된다. 저작권법에서 OSP에게 면책을 부여한 이유를 돌이켜보면, 검색서비스가 갖는 공공성이 인정되었기 때문이다. 저작권을 침해하는 결과가 나타나더라도, 일정부문 공익적인 가치평가가 이루어진 경우에는 저작재산권 제한규정을 의율하여 면책할 수 있도록 한 것이다. 물론, 검색자체가 저작권 침해가 아닌 사실정보만을 제공하는 경우, 그 제공방식이 원저작물의 일부만을 요약의 형태로 제공하는 경우, 그리고 원저작물에 접속할 수 있도록 링크를 제공하는 경우 등을 고려하여 판단하였다. 실상, 저작자의 이익을 침해하는 행위를 검색사업자가 제공하거나 또는 그러한 서비스로 이익을 얻었다고 보기 어려웠다. 이러한 점에서 기여책임이나 대위책임도 지울 수 없었던 것이다. 물론, 일정한 경우 방조책임을 질 수 있으나 저작권법에 따른 책임을 지면 될 것이다. 검색 결과에 대한 저작권법상의 문제는 서비스제공자가 저작권법상 면책을 받는 OSP인지 여부에 따라 결정된다. 전통적인 검색 서비스는 결과물에 대한 개입이 없기 때문에 면책되지만, AI 검색은 일정 부분 개입이 발생하므로 면책 가능성이 상대적으로 낮다. 특히, AI 검색이 저작권 침해된 콘텐츠를 상업적으로 이용할 경우, 면책이 더욱 어려워질 수 있다. AI 검색제공자가 OSP로 간주된다면 저작권 침해에 대한 면책 가능성이 있을 수 있지만, 다음 조건들을 충족해야 한다. 첫째, 검색제공자가 저작권 침해 여부를 인지하지 못했어야 하며, 둘째, 저작권자가 침해를 주장할 경우 게시중단 조치(notice & take down)를 취하여야 한다. 셋째, 검색제공자가 검색결과를 임의로 가공하지 않고 중립적으로 제공해야 한다. 임의성에 대해서는 명확한 기준이 제시될 필요가 있으나, 단순한 기계적인 관여에 한하여 중립성이 인정된다고 보는 것이 타당하다. 정리하자면, AI 검색제공자는 OSP로 인정될 가능성이 있지만, 저작권 침해 사실을 인지했거나 저작물에 적극적으로 개입한 경우 법적 책임을 질 수 있다. 그동안 검색은 인류의 정보활동에 미치는 공공성을 인정받으면서 저작권법상 면책을 받아왔다. 전통적인 검색과는 다른 면이 있지만, AI 검색 또한 공공성을 무시하기 어려운 서비스라고 생각된다. 최근 가디언지에서는 AI 검색에 대한 조작가능성에 대해 문제제기한 바 있다. AI 검색에 있어서 그 결과에 대한 조작 가능성에 대해 명확한 확인이 필요하다. 검색에 대한 저작권법의 면책조항은 개입이 없이 그대로 전달하는 것을 전제하기 때문이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    인공지능 검색과 저작권법
    by 김윤명
    2024.11.10 10:00:00
  • 본격적인 푸드테크(FoodTech)시대가 도래하면서 인간은 새로운 방식의 소외(疎外)를 경험하고 있다. 대기업에서 부회장으로 일하시다가 오래전 퇴임한 지인께서 평소 즐겨다니시던 수육 잘하는집을 이제는 안다닌다고 하셔서, 왜냐고 여쭈었더니 테이블오더 때문이라고 하신다. 음식을 기계로 주문하고 싶지 않다는 것이다. 서빙하는 분들이 친절하게 주문을 받아 주고 이런저런 대화도 나누는 정감어린 식당이었는데, 이제 그 기분을 느낄수가 없단다. 이미 키오스크와 테이블 오더(태블릿 주문)는 우리의 일상이 되어버렸다. 거기에 서빙 로봇이 매장을 누비고 로봇이 치킨을 튀기고 커피를 내린다. 배달앱을 모르면 배달을 시킬수 없고, 예약 앱이나 웨이팅 앱을 사용하지 못하면 인기 많은 식당이나 줄서는 식당은 아예 방문조차 할 수 없다. 이런 디지털 소외는 푸드테크 시대의 단면을 잘 보여준다. 최근 외식업계는 푸드테크에 대한 관심과 활용도가 높아지고 있다. 코로나 이후 비대면 문화가 본격적으로 자리 잡으면서 소비자의 욕구는 더욱 섬세해지고 개인화되었다. 거기에 전반적인 외식경기 불황과 인력난까지 더해지면서 푸드테크 활용은 급속도로 증가되고 있다. 이러한 외식업 사장님의 이해와 소비자의 경험이 녹아들면서 푸드테크 도입은 점차 가속화 될 전망이다. 그러나 여전히 장벽을 느끼는 사람들도 많다. 로봇과 디지털 기기들이 인력을 대체하며 생겨나는 인간소외라는 근본적인 문제가 대두되고 있는 것이다. 두산백과에 따르면 '소외(疏外, alienation)' 혹은 일반적으로 '인간 소외'라고 하는 개념은 인간이 자신을 둘러싼 환경, 노동 및 노동의 산물 또는 자아로부터 멀어지거나 분리되는 것을 가리킨다. 인간 소외에 대한 학문적인 관심은 산업화가 급속히 진행된 19세기에서 20세기 초반에 이르러 본격화되었다. 앞으로는 디지털을 통한 주문/결제는 물론이고 기름에 치킨을 튀기거나 화구에서 웍으로 고기를 볶는 등의 위험한 조리, 커피를 내리고 홀서빙을 하는 단순하고 반복적인 노동을 대부분 로봇들이 대체할 전망이다. 경기불황과 인력난이 심해지면서 그동안 외식업 분야에서 인간이 해왔던 위험하거나, 힘들거나, 단순 반복적인 일들을 자연스럽게 로봇과 기계가 대체하는 과정이 빠르게 확산될 것이다. 얼마전 플랫폼 시대에 데이터로 전락한 인간들의 모습을 조명하는 연극(‘자본3: 플랫폼과 데이터’)도 등장해 화제를 모았다. 연극은 배달 서비스 기업 아우토반이 만든 플랫폼에서 비인간적 처우를 받는 라이더들의 모습을 그린다. 아우토반은 수익을 높이기 위해 라이더들을 위험에 몰아넣고 사고에 대한 책임도 지지 않는다. 주인공은 프로그래머를 꿈꿨던 배달 라이더다. 그의 친구는 소시지 공장에서 일하다 기계에 끼어서 사고로 죽었다. 연극은 플랫폼 시대에 소외되는 인간들을 그린다. 인간의 표정에서 감정을 읽을 수 있는 AI는 소시지 공장 사고로 죽은 친구의 얼굴 감정과 유사한 감정을 가진 사람들을 세계 곳곳에서 찾아낸다. “친구의 감정과 유사한 얼굴들입니다. 데이터 라벨러로 일하는 사람들, 공장에서 일하는 사람들, 우버로 운전하는 사람들, 배달하는 사람들...” 세계적인 언어학자인 조지은 교수는 그의 저서 ‘미래 언어가 온다’에서 “플랫폼과 AI의 언어를 이해하지 못하면 결국 21세기의 문맹자가 될 것”이라고 이야기한다. 저자는 ‘미래 언어’는 문화와 기술이 융합된 새로운 소통 방식으로, 이 미래 언어의 도래가 단순한 학문의 영역을 넘어 경제, 경영, 그리고 사회 전반에 혁명적인 변화를 가져올 것이라 예측한다. 미래 언어를 모르면 점차 의사소통에서 소외되어, 급변하는 직업 생태계에서 도태 된다는 것이다. 지구 환경을 지키는 것, 조리 시 어렵고 고된 일을 대체하는 것, 신선하고 좋은 음식을 빠르고 싸게 구입하는 것, 요리를 맛있게 즐기도록 하는 것, 건강한 음식을 섭취 하는 것. 이런 것들을 모두 지속 가능케 하는 것이 바로 푸드테크다. 우리나라의 푸드테크 도입율은 전세계에서 최고로 높다. 아마도 미래의 푸드테크를 가장 선도하는 국가중 하나가 될 것은 분명하다. 그러나 푸드테크가 발전할수록 인간의 소외는 점점 깊어질 전망이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    푸드테크 시대의 인간소외
    by 안병익
    2024.10.27 10:52:51
  • 넷플릭스의 ‘흑백요리사’는 2주 연속 넷플릭스 글로벌TV 부문 1위에 오르면서 단기간에 국내외 최고의 화제를 모았다. 재야의 고수 ‘흑수저’ 셰프들이 최고의 스타 셰프 ‘백수저’들에게 도전장을 내밀며 치열하게 맞붙는 흥미진진한 내용도 재미있었지만, 다양한 식재료를 사용하는 K-푸드의 매력에 전세계 시청자들이 흠뻑 빠져들게 만들었다. 푸드테크(Food-Tech)는 ‘음식(Food)’과 ‘기술(Tech)’의 합성어로 식품 연관 산업에 소프트웨어(SW), 인공지능(AI), 로봇, 사물인터넷(IoT), 메타버스(AR·VR) 등 첨단 4차 산업 기술을 접목한 새로운 산업이다. 푸드테크는 음식의 검색·추천·주문·예약·배달·결제 등을 포함해 배양육, 로봇, 스마트키친, 스마트팜, 전자식권, 레스토랑 인프라, 스마트공장, 간편식, 정밀식품, 헬스케어 등을 포함하는 포괄적인 개념이다. 푸드테크는 기존산업에 더해져 신종 서비스를 만들어내고 새로운 수요와 공급을 창출한다. 전통적인 식품 연관 산업을 디지털 및 첨단 산업으로 확장한다는 점에서 푸드테크는 가장 주목해야 할 미래 산업이다. 온라인과 오프라인의 경계가 허물어지면서 푸드테크는 무한한 성장 가능성을 갖게 되었다. 한국푸드테크협의회에 따르면 2020년 기준 세계 푸드테크 시장 규모는 약 5542억 달러, 국내는 약 61조 원이다. 매년 40%를 넘는 높은 성장률을 보이고 있어 향후 약 600조원으로 성장할 것으로 전망하고 있다. 이에 따라 농림축산식품부는 푸드테크 특별법을 제정하고 2027년까지 푸드테크 유니콘 기업 30개 육성, 융복합 인재 3000명 양성, 1000억 원 규모 푸드테크 전용 펀드 조성도 추진하고 있다. "바보야, 문제는 경제야(It's the economy, stupid)". 1992년 미국 대통령 선거에서 빌 클린턴 민주당 대통령 후보가 조지 H. W. 부시 공화당 후보를 이기고 대통령이 될 수 있었던 유명한 슬로건이다. 우리나라가 집중적으로 육성하는 반도체 산업의 전세계 시장 규모는 2023년 기준 약 700조원에 불과하다. 2023년 기준 국내 식품 연관 산업은 약 560조원에 이른다. 국내 식품산업이 전세계 반도체 시장과 비슷한 규모인 것이다. 식품산업과 첨단기술이 접목된 푸드테크 시장 규모는 국내시장이 약 600조, 세계시장은 반도체 산업보다 약 50배 많은 4경 정도로 전망되는 미래 유망 성장 산업이다. 정부와 정치권이 가장 관심을 갖고 육성해야 할 산업은 반도체가 아니라 바로 푸드테크인 것이다. 2022년 미국 라스베이거스에서 매년 개최되는CES는 우주기술과 더불어 푸드테크를 새로운 카테고리로 매년 CES 행사에 초대하겠다고 선언했다. 다양한 국내외 로봇회사들은 로봇 바리스타, 치킨 로봇, 조리 로봇, 서빙 로봇, 배달 로봇 등 10여 종의 푸드테크 로봇을 개발해 현재 보급중이다. AI가 만들어가는 푸드테크 산업의 핵심은 로봇, 스마트 자동화와 생성형 AI를 통한 초개인화 맞춤형 서비스다. 스마트 자동화는 스마트팜, 스마트공장, 스마트물류 등 식품의 생산과 유통 전 과정에 적용되고, 첨단 AI푸드테크 로봇은 식품의 생산, 가공, 조리, 배달, 서비스에 이르는 모든 분야에서 사용 될 전망이다. 또한 AI로 개인 맞춤형 식단, 맞춤형 정밀식품, 헬스케어까지 가능해질 전망이다. 지금 K-푸드는 한류를 넘어 전세계로 질주하고 있다. 뉴욕의 미쉐린식당 71곳 중 한식당은 프렌치 레스토랑 보다 많은11곳이 선정되었고, 지난해 미국 대형마트에서 판매를 시작한 K-김밥은 SNS 상에서 인기를 얻으며 품절대란까지 이어졌다. 미국과 유럽은 올해 2024년을 주도할 음식 트렌드로 단연 K-푸드를 꼽고 있다. 넷플릭스 시리즈 흑백요리사가 최고의 인기를 얻는 배경에도 k-푸드가 한몫하고 있다. 이제 푸드테크는 K-푸드 결합을 통하여 더욱더 빠르게 성장될 전망이다. 흑백요리사도 못 피하는 첨단 미래 음식, 푸드테크! 푸드테크 산업을 K-푸드와 함께 대한민국의 새로운 성장동력으로 만들고 우리앞에 다가온 미래를 한층 더 앞당겨야 하겠다.
    흑백요리사도 못 피하는 푸드테크
    by 안병익
    2024.10.13 17:29:29
  • 문화예술진흥법에 따라 게임물은 법적으로 문화예술의 한 유형으로 규정되고 있다. 게임인은 예술인의 지위를 얻게 되었다. 게임물의 성격을 보면 그래픽이나 영상 등 예술적 요소와 소프트웨어 등 기술적 요소가 결합돼 있다. 더 나아가 게임물이 다른 서비스로 분화되거나 다른 서비스가 게임물로 변화하기도 한다. 게임물은 하나의 서비스나 기술이 아닌 다양한 유형이 융합된 결과물이다. 게임은 SW로서, 콘텐츠로서, 정보통신 서비스로서, 전자상거래에 따른 재화로서, 그리고 메타버스로서 분류될 수 있다. 이러한 각각의 성질에 따라 규율되는 법률이 상이하다는 점에서, 규제의 정합성에 문제가 발생하기도 한다. 메타버스 플랫폼의 성질은 다양성 및 확장성에 있다. 메타버스는 게임 서비스가 되거나, 콘텐츠 서비스가 되거나 다양한 서비스가 융합된 플랫폼 서비스로 볼 수 있기 때문이다. 이처럼 다양한 서비스가 연계되거나 혼재됨으로써 법적 적용에 있어서 혼란이 발생하고 있다. 메타버스에 대한 규제 체계는 다른 서비스와의 형평성 측면에서도 정리될 필요가 있다. 다만, 메타버스의 새로운 서비스 유형에 대해서 규제 체계로 편입시킬 경우에 나타날 수 있는 문제에 대해서는 규제정합성 및 산업진흥이라는 측면에서 고민이 필요하다. 게임규제는 시장에서 등급분류 받은 내용과 다르게 변질될 것이라는 ‘우려’에 기반한다. 모든 영역에서 우려가 없는 것이 있을까? 우려가 없는 사업은 없다. 유독 게임산업법에서는 우려를 가지고, 규제의 근거로 삼고 있다. 이러한 규제적 속성은 게임물과 경계에 있는 메타버스에도 적용된다. 무엇보다, 메타버스산업이 게임산업과 유사하다는 점에 기인한다. 메타버스는 다양한 서비스의 집합과도 같기 때문에 게임산업법만이 아닌 청소년보호법 등 다양한 규제법제의 적용을 받을 수밖에 없다. 그렇지만, 메타버스가 게임산업법을 우회하거나 사행성을 조장할 것이라는 우려 때문에 게임물과 동일하거나 유사한 수준의 규제를 받아야한다는 것은 당위적이지 않다. 우려만이 아닌, 실제 문제가 있는지에 대한 검토가 필요한 영역이다. 물론 그동안 사업자들이 보여온 행태를 보면 우려가 이해가 가는 면도 있다. 따라서, 실증 특례를 해보는 것도 하나의 방안이다. 메타버스 산업에 대한 정부의 신사업 육성에 대한 의지, 게임산업법의 탈 규제 체계의 수립, 자율규제의 확장과 책임의 강화 등을 통해 새로운 서비스에 대해서는 시장에 맡겨두는 것도 방안이 될 수 있다. 물론 무조건적인 자율은 아니다. 자율규제를 위반하거나 또는 기대했던 바와 다른 결과가 나올 경우, 그에 대한 책임을 가중하는 것이다. 메타버스와 게임물은 경계에 위치하고 있다. 메타버스의 게임화 또는 게임의 메타버스화하는 상황에서 양자는 명확한 구분이 쉽지 않다. 규제기관과 사업자간의 이해관계가 충돌하는 영역이다. 메타버스 정책과 게임정책은 기본적으로 진흥을 목적으로 하지만, 실질적으로 기대하는 효과나 목적은 상이하다. 게임의 속성상 ‘오락’을 목적으로 하기 때문이지만, 게임산업에 내재하는 사행성 이슈는 게임내에서 이루어지는 경제와 현실세계의 경제의 혼합을 규제한다. 그렇기 때문에 게임내에서 경제활동은 규제의 대상이 되고, 현실 재화로의 이전은 금지된다. 지금까지 게임산업이 갖는 기술적인 특성에 따르면, 게임산업법의 규제는 당연한 것이기도 하다. 그렇지만, 기술이라는 것은 변화하는 속성을 갖는다. 기술과 비즈니스 모델을 구분하는 것도 쉽지 않다. 게임산업과 메타버스 산업을 구분하기 어렵다면, 규제라는 목적이 어떤 가치를 추구하는 것인지를 살펴보아야 한다. 규제는 사업자에게 부담지우는 것이기는 하지만 최종적인 소비자에게 분담지워진다. 이러한 분담은 소액이나 영향력이 크지 않기 때문에 체감되지 않을 뿐이다. 그렇지만, 그러한 규제가 정당하다고 판단할 수 있는 것은 아니다. 게임산업법이 도구적으로 메타버스 산업에 영향력을 행사하는 것은 규제나 정책의 정합성이 떨어지기 때문이기도 하다. 정책이 정합적이지 않으면, 결국 수범자의 입자에서는 명확하지 않는 산업정책으로 인식될 뿐이다. 따라서, 메타버스 규제의 필요성이 있다면 그 필요성이 명확해야 한다. 그렇지 않을 경우, 어떤 규제의 실익이 있는지를 설명하여야 한다. ‘우려’라는 관점에서 판단하는 것은 정책적이지 않다. 과학적, 통계적 기반에 따른 게임정책이 요구된다. 정부 정책이 과학적이지 않는다면 해당 정책은 신뢰하기 어렵기 때문이다. 또한, 게임물의 규제에 대해서는 게임산업법의 목적규정과 입법취지에 부합해야 한다. 게임산업법은 “게임산업의 진흥 및 국민의 건전한 게임문화를 확립함으로써 국민경제의 발전과 국민의 문화적 삶의 질 향상에 이바지함”을 목적으로 한다. 게임 산업에 대한 규제, 게임의 문화적 이용에 대한 규제 등 목적규정에 위배되는 규제는 반드시 개정돼야 한다. 이처럼, 입법목적이 부정되는 법률을 누가 수범해야하는지 묻고 싶다. 우리 헌법은 문화국가의 원리를 기본원리로 삼고있음에도, 가장 문화적이고 예술적인 게임 분야에서 몰가치한 규제가 이루어지고 있는지 아이러니할 뿐이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    법적 관점에서 본 메타버스와 게임의 경계
    by 김윤명
    2024.07.21 08:00:00
  • AI가 가져올 수 있는 여러 위험을 시장의 자율에 맡길 것인가, 아니면 국민의 안전을 위해 규제를 통해 관리할 것인가는 복잡한 문제이다. 자율과 규제는 상호보완적인 관계에 있으며, 어느 한쪽에 치우친 접근은 문제가 될 수 있다. 기술과 이용이 상호 연관되어 있듯이 자율과 규제도 균형을 이루어야 한다. AI는 블랙박스 특성을 가지므로 그 작동 원리와 결과를 예측하기 어려운 경우가 많다. 따라서, 안전한 AI를 구현하기 위해 기술적, 제도적 측면에서 다양한 방안이 필요하다. 예를 들어, 설명가능한 AI 기술의 발전과 국제표준화가 이루어지고 있으며, 이는 기술외교의 중요한 요소로 작용한다. AI와 관련된 글로벌 논의와 정책은 국가별로 다르게 전개되고 있다. 2023년 11월, 영국 블레츨리에서 AI 안전에 대한 글로벌 논의인 AI Safety Summit이 있었고, 블레츨리 선언(Bletchley declaration)이 이루어졌다. 2024년 5월, 서울에서 후속 논의인 AI Seoul Summit이 개최된 바 있다. AI의 편향, 공정, 신뢰의 가치를 넘어 AI 안전이라는 의제를 다루었다. 또한, AI 안전을 위한 정책과 기술 모니터링을 위한 AI 안전연구소 설립도 발표되었다. AI 안전연구는 특정 부처만의 역할이 아닌 범부처의 역할로 보아야 한다. AI는 고도의 알고리즘을 통해 구현되는 의사결정시스템이다. 조건에 맞게 작동하며, 그 조건에 부합하지 않을 경우 ‘결함’이 있는 상태가 된다. 그동안 SW 안전에 대한 논의에서는 SW의 결함이 수용 가능하거나 대응 가능한 수준이라면 큰 문제로 보지는 않았다. 그렇지만, AI는 블랙박스로서 원인과 결과를 예측하기가 쉽지 않고, 인과관계가 아닌 상관 관계의 추론에 머무는 수준이다. 그렇기 때문에 AI 안전을 위한 기술적 측면, 제도적 측면 등 여러 가지 방안이 강구되고 있다. 설명가능한 인공지능은 다양한 영역에서 연구되고 있으며, 국제표준화작업이 진행 중에 있다. 표준화는 기술외교의 한 방편이다. 특히, 국제표준은 글로벌 AI 정책이나 기술에 있어서 헤게모니를 가질 수 있다는 점에서 중요한 기술외교의 영역으로 볼 수 있다. 설명가능성을 높이기 위한 입법이 이루어지고 있으며, 이는 기술의 과정에서 이용자에게 신뢰성을 얻기 위해서는 필수적이다. 최근에는 생성물로 인한 안전을 담보하기 위해 환각현상을 완화할 수 있는 방법으로 검색증강생성(RAG) 기술이 제시되고 있다. 검색증강생성은 고전적인 AI인 전문가시스템(expert system)으로 볼 수 있다. AI 겨울을 초래했던 전문가시스템이 새롭게 그 역할을 인정받는 시대에 이르고 있다. 이처럼 기술 발전은 서로 융합되거나 기술로 인한 문제를 해결해가는 수단이 될 가능성도 높다. 다만, 기술의 문제를 기술로 해결하려는 것은 지양될 필요가 있다. 기술의 문제에 대한 최종적인 판단과 책임 주체는 사람이어야 하기 때문이다. 그렇지 않을 경우, 기술의 문제에 대한 사람의 책임이 배제될 수 있기 때문이다. AI로 인한 여러 문제에 대한 투명성, 공정성, 책무성 등을 강조하는 정책들이 제안된 바 있다. 결국, 최종적인 이용자인 일반 국민의 안전을 위한 것이라고 하겠다. 클로드 AI(Claude AI)에서 적용하고 있는 헌법적 AI(constitutional AI)는 답변 과정에서 법적인 사항까지도 체크한다. 이처럼 AI가 생성하는 결과물에 대해 위법한 내용에 대해 문제가 있다는 점을 명확히 하는 것도 의미있다. 헌법적이라는 표현을 쓰고있지만, 사람이 갖추어야할 윤리적인 내용을 체계적으로 정리하고 기술에 적용한 모델로 볼 수 있다. 최상위 규범을 정하고, 그 규범에 따른 하위 규범이 구체화된 것으로 볼 수 있다. 일종의 입법체계가 AI 모델에서 구현된 것이다. 이와 같이, 결과만을 생성하는 것이 아닌 질문의 맥락을 파악하고 그 내용이 법률적으로 문제가 되는지에 대한 조언까지 제시한다면, 이용자는 자신의 행위에 대한 윤리적인 판단을 할 수 있기 때문이다. 물론, 자기검열로서 역할을 할 수도 있을 것이다. 다만, 그 과정에서 타인의 명예훼손이나 나의 위법행위에 대한 판단을 내릴 수 있다는 점에서 표현의 자유를 훼손한다고 단정하기는 어렵다. 결국, 최종적인 판단은 이용자 스스로 선택에 따른 결과이기 때문이다. 사회 규제가 갖는 성격상 안전을 위한 것이라는 점에서 기술의 안전을 확보하기 위한 규제는 필요충분성을 갖추어야 하기 때문이다. 즉, 최소한의 안전성이 보장된 상태에서 신기술이나 신사업이 허용되도록 하고, 발전과정에서 안전성 보장을 조정하고 강화하여야 한다. 결국, AI에 대한 규제의 성질은 그 특성에 따른 규제 접근이 필요하다. 기업들이 선호하는 자율 규제라는 것은 기업이나 개발자 스스로 AI보다 더 윤리적이어야 하다는 전제에 기반한다. ‘선허용 후규제’가 논란이 된 적이 있지만, 사전적인 규제가 없다는 점이 반드시 긍정적으로 작동하는 것은 아니다. 이러한 규제가 강한 규제로 실시되거나 예측하지 못한 규제가 되는 경우에 막대한 투자가 물거품이 될 수 있기 때문이다. 이처럼 미지의 기술인 AI에 대한 사전적 규제없이 시장 출시를 허용할 경우, 사업자는 이에 대한 리스크나 예측가능성을 충분히 대응할 수 있을지 의문이다. 따라서, AI의 성질이나 목적에 따라 구체적인 기준을 제시함으로써 사업자나 이용자에게 예측가능하고 신뢰가능하도록 해야할 것이다. 정부의 규제는 AI 윤리에서 EU AI법과 같이 법적 규제로 넘어가고 있지만, 모델 자체는 여전히 사람과 같이 윤리적 가치가 우선적으로 적용될 수밖에 없다. AI 안전은 궁극적으로 국민의 안전을 위해 존재하며, 이를 위해 적절한 규제가 필요하다. 자율 규제는 기업이 스스로 윤리적 기준을 지켜야 한다는 전제에 기반하지만, 예측 가능한 범위 내에서 안전 규제를 통해 AI 기술의 문제를 관리하고, 국민의 신뢰를 얻는 것이 중요하다.
    AI 자율과 규제의 균형을 찾아서
    by 김윤명
    2024.07.07 09:37:27
1 2 3 4

top버튼
팝업창 닫기
글자크기 설정
팝업창 닫기
공유하기