필진 전체목록
김윤명
김윤명 디지털정책연구소 소장
메일 공유
연재 중
AI 웨이브
7개의 칼럼 #경제
  • 네이버가 소버린 AI(Sovereign AI)를 주장하고 있다. 왜 그랬을까? 이를 곰곰이 생각해 보면, 내부에서 검색과 AI가 충돌하고 있는 것은 아닐까라는 생각이다. 합리적인 의심은 이렇다. 최근 발표된 네이버의 AI 전략은 서비스에 AI를 융합하는 모양새다. 그동안 네이버는 저작권을 제한하는 데이터마이닝(TDM)의 도입하는 저작권법 개정에 부정적이었다. 누구나 쓸 수 있도록 데이터가 개방되면, 네이버는 한글에 대한 독점력을 유지하기는 어려울 것이기 때문으로 이해된다. 경쟁관계에 있는 구글이나 OpenAI와 같은 글로벌 기업들도 한글 데이터에 대한 제한없는 이용이 가능해지기 때문이다. 검색을 위해서는 데이터를 제한없이 크롤링할 수 있도록 저작권이 제한되어야 하지만, AI를 위해서는 데이터를 개방하면 글로벌 기업들에게 경쟁력을 빼앗길 수 있기 때문에 개방하기 어렵다는 것이다. 여기에서, 검색과 AI 부문이 충돌하게 된다. 이는 구글도 다르지 않다. AI 모델 학습은 지속적인 데이터가 필요하다. 그동안 네이버는 적잖은 비용을 투자했지만, 뚜렷한 성과를 보이지 못하고 있다. 앞으로도 마찬가지다. 글로벌 기업의 수조원 단위의 R&D와 비교할 수 없기 때문이기도 하다. 더군다나, 네이버의 경쟁력인 한글화에 있어서도 글로벌 AI 서비스에 경쟁우위에 선다고 보기도 어렵다. 글로벌 기업들이 제공하는 서비스에서도 한글 정보는 이미 네이티브를 넘어서고 있다. 앞으로, 더 넘어설 가능성이 크다. 그동안 네이버 검색은 한글을 기반하여 성장해 왔다. 그 덕분에 엠파스가 사라지고 야후도 국내시장에서 철수했다. 현재 검색시장의 경쟁은 네이버의 독점 내지 과점으로 이어졌다. 구글의 점유율도 상당히 높아지고 있다. 이는 경쟁을 통한 서비스 향성과 소비자 후생이 높아질 수 있다는 점에서 긍정적이다. 글로벌 시장에서 한글은 특정 기업이 독점적인 마케팅을 주장할 가치가 아니다. 글로벌 시민 모두가 누려야 할 가치이다. 이러한 가치를 국내 기업이라고 오로지 할 수 있는 것은 아니다. 글로벌 시민이 한글을 제대로 익히고, 제대로 된 한글정보를 얻을 수 있도록 해야 한다. 그것이 대한민국과 네이버를 포함한 우리기업의 책무이다. 네이버이기 때문에 한글을 독점해야 한다는 논리는 글로벌 시장에 진출하고자 하는 기업의 전략으로는 옹색하다. 소비자는 자신의 의지에 따라 네이버를 쓰고, 구글을 쓰고, 네이버 쇼핑을 이용하거나 11번가를 선택할 수 있다. 멀티호밍(multihoming)이 가능하다. 이는 독점에 대한 네이버의 대응논리이기도 하다. 소비자는 합리적인 선택을 하기 때문에 필요에 따라 다른 플랫폼을 이용할 수 있다는 것이다. AI는 더욱더 그러하다. 챗GPT나 제미나이(gemini)와 같은 글로벌 AI 서비스의 한글은 우리 국민들이 쓰기에도 어색함이 없다. 부족하더라도, 그 내용을 극복할 수 있는 문해력이 있기 때문이다. 그렇지만, 해외 시민들이 한글을 쓸려고 할 때 문제는 없을까? OpenAI, MS, 구글 등 수많은 AI기업들이 한글 서비스를 확장하고 있다. 그렇지만, 여전히 어색하고 의미와 다른 정보가 출력된다. 이 책임은 기본적으로 그 회사에 있다. 그렇지만, 그 책임을 회사에 돌리고 부정확한 한글정보가 노출되지 않은 것에 불평만 할 것인가? 그 사이에 우리나라의 문화를 이해하고 향유하기 위해 한글정보를 얻고자하는 글로벌 시민들은 한글과 대한민국에 대한 신뢰를 상실하지 않을까? 이러한 점도 고려돼야 한다. 네이버는 소버린 AI를 주장한다. 좀더 정확히는 한글 데이터 주권을 주장하고 있는 것으로 보인다. 우리가 아니면, 한글을 지켜낼 수 없다는 주장이다. 좀 어색하다. 그런데, 네이버는 중동, 사우디아라비아와 같은 시장에서 소버린 AI를 통해 현지 언어와 문화에 맞는 AI 솔루션을 제공하며 글로벌 진출을 가속화하고 있다. 네이버를 응원한다. 그렇지만, 소버린 AI에 한글을 볼모삼는 것은 지극히 잘못된 마케팅이다. 이는 다중적이거나, 양면적이기도 하다. 한 가지 의문, 네이버는 어디에서 학습데이터를 소싱하고 있을까? 추측컨대, 모르긴 몰라도 크롤링이 가능한 모든 정보가 포함돼있을 것이다. 이용자의 노력의 산물인 블로그나 카페와 그리고 인터넷에 무수하게 공개된, 그렇지만 여전히 저작권 있는 개인의 정보였을 것이다. 그 안에는 KINDS나 기사를 제공하는 언론사의 수많은 기사가 포함되어 있을 것으로 생각된다. 권리자단체에서 데이터 출처 공개를 요구했을 때, 답할 수 없었던 이유이기도 할 것이다. EU AI법이나 미국의 저작권법 개정안에서는 학습데이터에 사용된 저작권 관련 정보를 충분히 공개하도록 하거나 저작권청에 제출토록 의무화하고 있다. 어떤 저작물이 사용되었는지 공개되어야 한다는 의미이다. 이용하는 데이터가 윤리적이어야 한다는 것이고, 그렇지 않을 경우 신뢰할 수 없기 때문이기도 하다. 어떤 데이터를 사용했는지를 공개한다면, AI 사업자는 해당 서비스에 대해 신뢰할 수 있는 결과를 만들려고 법적, 윤리적인 노력을 할 것이다. 적어도, 소버린 AI를 주장하려면 권리자들에 어떤 보상을 할 것인지, 데이터 배당이나 데이터 보상에 대해 고민했어야 한다. 저작권은 권리자의 전가의 보도는 아니지만, 데이터를 아무런 보상없이 이용하면서 그 결과에 대해서까지 독점하는 것은 이치에 맞지 않다. 네이버 회원이기도 한 일반 이용자로서 저작권자에 대한 데이터배당은 고민해야할 것이다. 플랫폼 내에서 그 가치는 산정할 수 있을 것으로 보인다. 데이터 하나하나에 고유의 id값이 부여될 것이기 때문이다. 기업이 권리나 필요를 주장하기 위해서는 합리적이고, 윤리적인지도 검토돼야 한다. 기업의 주장은 그래야 한다. 적어도 정책적인 사항에 대해서는 마케팅과는 달라야 한다. 알고리즘 조작을 앞세워 자사의 이익을 극대화하고 소비자의 후생을 저해하는 행위를 하면서 자율규제를 주장하는 플랫폼사업자들을 신뢰하기는 어렵다. 공정거래위원회로부터 수백억원대의 과징금 처분을 받고, 고등법원에서 패소한 네이버의 행태를 보면서, 소버린 AI를 주장하는 것은 표리가 부동한 지금 대한민국의 현실과도 맞닿아있다면 나만의 우려인가? 특정 기업을 몰아주거나 반대하자는 것이 아니다. 필자는 국회 보좌관 시절, 모시던 의원을 설득하여 네이버의 데이터주권을 위한 국회 세미나를 4차례 정도 기획하여 진행한 바 있다. 최근 구글의 디지털책임위원회 위원으로서 구글의 사회적 책임(responsibility)에 대해 논의하기도 했다. AI만이 공정하고 투명해야 하는 것이 아니다. 그 기업이 사회적 책임을 다하고 있는지를 먼저 살펴야 한다는 것이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.12.22 08:47:09
    '소버린 AI'는 왜 나왔을까?-네이버 AI와 검색의 충돌
  • 알고리즘이 고도화하면서 여러 가지 문제점이 복합적으로 작용하기 때문에 소비자 안전을 강조하게 된다. 알고리즘의 조작을 통한 차별이나 필터버블에 의한 편향된 결과의 지속적인 제공은 다양성이 배제된 의식의 편향으로 이어질 수 있다. 인공지능(AI) 검색은 인터넷검색과 달리, 일부분의 데이터에 기반해 생성한 결과를 제공하기 때문에 인터넷이나 인터넷검색의 다양성이 훼손될 가능성도 크다. 데이터의 편향에 의한 결과의 신뢰성을 담보하기 어려운 경우 등 AI 모델이 갖는 내재적인 한계가 원인으로 지목된다. 또 알고리즘을 학습시키거나 서비스에 적용하는 과정에서 개발자 등의 의식적이거나 무의식적인 개입이 이루어질 가능성도 배제하기 어렵다. 일례로 네이버, 쿠팡, 카카오모빌리티 등 플랫폼사업자들의 알고리즘 조작은 대표적인 소비자 안전을 해치는 사례이다. 안전은 물리적인 위해로부터의 안전만이 아니라 합리적인 상황을 벗어나지 않는 의사결정을 내릴 수 있는 평온함의 유지나 개인의 프라이버시를 보호받을 수 있는 상황을 포함한다. 또 소비자의 후생이나 권리가 침해당하지 않는 상태로서 소비자 안전도 포함된다. 알고리즘에 의해 이루어지는 불공정행위는 직간접적으로 소비자 권리를 침해하는 결과를 가져오기 때문이다. AI 안전권에 대한 논의가 필요한 이유이기도 하다. 우리는 서비스나 기술이 시장에 출시될 때 안전성을 테스트했을 것이라는 신뢰에 따라 해당 서비스나 제품을 이용하거나 소비한다. 지금은 AI의 안전성에 대한 신뢰도가 높은 것으로 보이지는 않는다. 국회에 발의된 15개 AI 관련 법안이 기본적으로 담고 있는 가치는 ‘신뢰성있는 AI’에 관한 규정이다. 그만큼 AI의 신뢰성에 대한 문제인식이 있다는 방증이기도 하다. 그럼에도 불구하고 신뢰성을 저해하는 행위에 대한 규정은 찾기 어렵다. AI 안전은 규제가 아니다. 헌법이 보장하는 국민의 행복추구권의 한 유형인 기본적인 인권이기 때문이다. 신뢰는 서비스제공자의 책임있는 태도에서 출발한다. 몇몇 사례이지만 플랫폼사업자들의 의도적인 알고리즘 왜곡이나 조작은 신뢰를 얻기 어렵다. AI 기술은 소비자의 편의를 크게 향상시키지만 동시에 신뢰와 안전에 대한 문제를 제기한다. 특히 AI가 복잡한 알고리즘으로 작동하는 경우 소비자는 그 작동 방식에 대해 충분한 정보를 알 수 없다는 ‘블랙박스’ 문제에 직면한다. 이는 서비스의 신뢰성에 영향을 미치며 신뢰 상실은 소비자 피해로 이어질 수 있기 때문에 소비자 보호를 위해 AI의 안전성과 투명성을 강화하는 정책이 필요하다. 물론 AI를 이용하는 과정에서 나타나는 여러 가지 법률적 윤리적 이슈의 최종적인 책임은 해당 서비스를 이용하는 소비자에게 미치는 영향의 정도에 따라 달리할 수 있을 것이다. 알고리즘에 의한 권력의 균형추가 플랫폼사업자 중심으로 재편되는 상황에서 소비자 주권에 대한 논의는 필수적이다. 그동안 AI 관련된 논의에 있어서도 ‘소비자 주권’과는 멀었다. AI관련 정책의 수립과정에서 소비자가 직접 개입하거나 의견을 제시할 수 있는 기회가 부족했다. 실제 알고리즘을 소비하는 소비자 권리는 누가 보호할 것인지 묻지 않을 수 없다. 개별적 소비자의 힘은 크지 않다. 알고리즘으로 인한 문제는 소비자 스스로 해결하기 어려운 문제이다. 적극적으로 소비자 단체가 나서야 할 이유이다. 알고리즘 공정성을 위해 소비자 단체에 의한 모니터링을 강화하거나 ‘소비자 권리장전’을 제정하는 것도 필요하다. 우리 세대가 AI 안전에 대한 기반을 닦지 못할 경우 다음 세대의 안전을 담보하기는 더욱 쉽지 않을 것이다. 서비스제공자는 소비자 주권에 대한 적극적인 이해와 그에 따른 서비스정책을 마련하는 것이 바람직하다. 다양한 방법을 통해 AI 서비스 사용 경험에 대한 불만 접수 시스템을 통해 소비자 의견을 수렴하고 알고리즘 개선에 반영하는 절차를 마련할 수 있을 것이다. 제대로 된 서비스 정책을 수립하지 못할 경우 더 큰 규제에 직면할 수 있다는 점은 ‘확률형 아이템 표시제도’ 등 여러 사례를 통해 확인된 것이기도 하다. 소비자 안전권은 헌법상 행복추구권에 근거한 파생적 기본권이다. 안전에 대해서는 국가의 책무이며 그 원인이나 결과가 어떤 것이든 국가는 국민인 소비자의 안전을 위한 일련의 책무임을 잊지 않아야 한다. 이를 위해 정부는 알고리즘으로 인해 발생하는 여러 가지 문제점을 조망하고, 그러한 문제가 소비자의 후생을 해치는 경우에 어떻게 소비자 권리를 구제할 것인지 정책방향을 제시할 필요가 있다. 입법적으로는 AI 기본법 체계내에서 다룰 것인지, 기존의 소비자기본법이나 정보통신관련 법제 등의 정비를 통하여 소비자 권리를 구체화할 것인지 여부이다. 사업자들에게도 명확한 기준을 제시함으로써 예측가능성을 높일 수 있을 것이다. 알고리즘 조작에 대한 일련의 사건에 대해 공정거래위원회가 큰 역할을 해왔다는 점에서 공정거래위원회가 부합하지만 EU AI 기구(AI office) 처럼 별도의 독립적인 AI 전문규제기관을 두는 방안도 고려될 필요가 있다. 권력화되는 알고리즘에 대응하고 안전을 지키기 위해서는 지속가능한 안전 정책이 요구된다. 최근 ‘AI안전연구소’가 출범했다. 연구소가 정책연구소인 것은 안전관련 정책이나 법제도 측면에서 우리사회의 안전망을 구축할 수 있는 씽크탱크로서 역할을 기대하기 때문일 것이다. 알고리즘이 우리 사회의 안전을 위협하는 요인은 복합적이고. 다양하다. 다양한 영역과의 협력적 거버넌스 체계를 갖추는 것이 필요하다. 하나의 아이디어이지만 AI 안전의 범위를 물리적이고 기계적인 안전이 아닌, 사회적 안전까지도 확장하여 최종적인 소비자인 국민의 안전을 위한 거버넌스 체계로 확대해나가는 것이 바람직하다. 다만 알고리즘의 문제는 알고리즘으로 풀어야한다는 낭만적인 생각은 버려야 한다. 인간이 주체적으로 개입하여 해결해야 할 과제임을 명심해야 한다.
    2024.11.24 11:53:38
    알고리즘과 소비자 안전
  • 인공지능이 검색분야에 큰 영향을 미치고 있다. 인터넷에 공개된 정보의 요약과 해당 페이지의 링크(URL)를 제공하는 인터넷검색과의 차별화를 가져오고 있다. 인공지능(AI) 검색은 결과물을 AI 시스템이 생성하여 제공한다는 점에서 인터넷검색과 차이가 있다. 또한, AI 검색결과는 이용자가 입력한 검색 프롬프트의 맥락을 분석하여 그에 적합한 정보를 제공한다. 검색결과는 AI가 웹사이트 정보를 분석하여 검색 맥락에 맞게 생성하기 때문에 그 성격은 편집물로 볼 수 있다. 다만, 내용을 구성하는 부분들이 맥락에 따라, 일정한 체계를 갖고 있다는 점에서 편집저작물로서 인정받을 수 있다. 물론, 전체적으로 하나의 창작적 표현으로 볼 경우라면 편집물과 별도로 창작적 표현으로 볼 여지도 충분하다. 이 경우, AI 검색은 이용자에게 편집물 또는 완성된 창작적 표현으로서 제공된다. AI검색은 다양한 정보의 편집이지만 타인의 저작물이나 정보가 포함된 것이라는 점에서 ‘인용’의 방식으로 편집된다. 저작재산권 제한규정인 인용에 있어서, 저작권법은 구체적인 방법에 대해 기준을 제시하지는 않고 있다. 인용이 될 수 있는 방식, 즉 출처표시가 가능하다면 그 방식에 있어서 문제될 것은 아니다. 따라서, 링크방식으로 이루어지더라도 저작권법상 인용요건을 갖춘 것으로 볼 수 있다. 검색결과의 편집은 이용자의 요구에 의하여 알고리즘에 의하여 이루어진다. 기술적으로 이루어지기 때문에 내용통제가 이루어지지 않는다. 일반적인 인터넷검색도 필터링과 같은 기술적 방식이외에 검색결과의 내용에 대한 조작은 쉽지 않다. 검색결과의 조작이 AI 모델이나 검색엔진 차원에서 문제되는 사항이라면, 이는 서비스제공자의 책임 영역에서 이루어진 것으로 제공자 책임이다. 다만, AI 검색은 결과물에 대해 제공자는 어떤 내용의 검색을 요구받는지 알기 어렵다. 사후적으로 문제되는 내용에 대해 확인이 가능할 뿐이다. 그렇기 때문에 AI 검색에 있어서 그 결과물에 대한 책임은 일반적인 온라인서비스제공자(OSP)와 같이, 면책될 수밖에 없다. 기술적으로 AI검색과 인터넷검색은 여러 가지 측면에서 다르지만, 사실상 법적 책임에 있어서는 검색의 기능과 역할을 고려할 때 면책되도록 하는 것이 바람직하다. 검색이 정보의 완결성을 높이고, 공익적 역할을 한다는 점에서 엄격한 책임을 지운다면 인터넷상의 다양한 정보에 대한 접근 등 알권리가 훼손될 수 있기 때문이다. 다만, 검색결과에 대한 관여를 어떻게 볼 것인지에 따라 책임의 결과가 달라질 수는 있다. 결과를 의도적으로 조작하는 경우와 사회적 가치를 높이기 위해 조정하는 경우에 대한 가치판단의 차이가 있기 때문이다. OSP의 관여는 유해한 정보, 공서양속에 위배되는 정보, 개인정보 등 법에서 금지되는 정보는 필터링될 수 있도록 조정(tuning)이 이루지고 있기 때문에 이러한 법적 의무 이행에 따른 관여는 문제라고 보기 어렵다. 또한, 저작권법은 OSP에게 일반적인 모니터링 의무를 금지하고 있다는 점도 고려되어야 한다. 검색결과에 대한 모니터링을 한다는 것은 일종의 검열이 될 수 있기 때문이다. 다만, 오랜 기간에 걸처 인터넷검색이 다양한 평가를 받았던 것과는 다른 매커니즘으로서 AI 검색의 가치는 좀 더 살펴볼 필요가 있다. 이처럼, AI 검색의 법률 문제에 대한 검토는 검색결과와 검색서비스를 구축하는 과정에서 나타날 수 있는 문제는 없는지 살펴보는데 있다. 결론적으로, AI 검색은 인터넷검색과 차이점이 있으며, 이는 검색결과에 대해 서비스제공자의 개입이 있다는 점이다. 물론, 개입이 악의적으로 왜곡하거나 편향을 부추기는 것은 아니라는 점에서 AI 검색의 신뢰성을 배재할 수는 없다. 다만, 결과에 있어서 제공되는 링크가 사실에 기반한 것이 아닌 경우가 발견된다. 즉, 검색결과나 같이 제공되는 링크에 대한 신뢰성을 담보하기 어려운 경우가 있다. 이러한 점은 기술적으로 해결해가는 과정이고, 검색증강생성(RAG) 방식을 통해 검색결과의 신뢰성을 높이고 있지만 여전히 불충분한 면이 발견된다. 저작권법에서 OSP에게 면책을 부여한 이유를 돌이켜보면, 검색서비스가 갖는 공공성이 인정되었기 때문이다. 저작권을 침해하는 결과가 나타나더라도, 일정부문 공익적인 가치평가가 이루어진 경우에는 저작재산권 제한규정을 의율하여 면책할 수 있도록 한 것이다. 물론, 검색자체가 저작권 침해가 아닌 사실정보만을 제공하는 경우, 그 제공방식이 원저작물의 일부만을 요약의 형태로 제공하는 경우, 그리고 원저작물에 접속할 수 있도록 링크를 제공하는 경우 등을 고려하여 판단하였다. 실상, 저작자의 이익을 침해하는 행위를 검색사업자가 제공하거나 또는 그러한 서비스로 이익을 얻었다고 보기 어려웠다. 이러한 점에서 기여책임이나 대위책임도 지울 수 없었던 것이다. 물론, 일정한 경우 방조책임을 질 수 있으나 저작권법에 따른 책임을 지면 될 것이다. 검색 결과에 대한 저작권법상의 문제는 서비스제공자가 저작권법상 면책을 받는 OSP인지 여부에 따라 결정된다. 전통적인 검색 서비스는 결과물에 대한 개입이 없기 때문에 면책되지만, AI 검색은 일정 부분 개입이 발생하므로 면책 가능성이 상대적으로 낮다. 특히, AI 검색이 저작권 침해된 콘텐츠를 상업적으로 이용할 경우, 면책이 더욱 어려워질 수 있다. AI 검색제공자가 OSP로 간주된다면 저작권 침해에 대한 면책 가능성이 있을 수 있지만, 다음 조건들을 충족해야 한다. 첫째, 검색제공자가 저작권 침해 여부를 인지하지 못했어야 하며, 둘째, 저작권자가 침해를 주장할 경우 게시중단 조치(notice & take down)를 취하여야 한다. 셋째, 검색제공자가 검색결과를 임의로 가공하지 않고 중립적으로 제공해야 한다. 임의성에 대해서는 명확한 기준이 제시될 필요가 있으나, 단순한 기계적인 관여에 한하여 중립성이 인정된다고 보는 것이 타당하다. 정리하자면, AI 검색제공자는 OSP로 인정될 가능성이 있지만, 저작권 침해 사실을 인지했거나 저작물에 적극적으로 개입한 경우 법적 책임을 질 수 있다. 그동안 검색은 인류의 정보활동에 미치는 공공성을 인정받으면서 저작권법상 면책을 받아왔다. 전통적인 검색과는 다른 면이 있지만, AI 검색 또한 공공성을 무시하기 어려운 서비스라고 생각된다. 최근 가디언지에서는 AI 검색에 대한 조작가능성에 대해 문제제기한 바 있다. AI 검색에 있어서 그 결과에 대한 조작 가능성에 대해 명확한 확인이 필요하다. 검색에 대한 저작권법의 면책조항은 개입이 없이 그대로 전달하는 것을 전제하기 때문이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.11.10 10:00:00
    인공지능 검색과 저작권법
  • 문화예술진흥법에 따라 게임물은 법적으로 문화예술의 한 유형으로 규정되고 있다. 게임인은 예술인의 지위를 얻게 되었다. 게임물의 성격을 보면 그래픽이나 영상 등 예술적 요소와 소프트웨어 등 기술적 요소가 결합돼 있다. 더 나아가 게임물이 다른 서비스로 분화되거나 다른 서비스가 게임물로 변화하기도 한다. 게임물은 하나의 서비스나 기술이 아닌 다양한 유형이 융합된 결과물이다. 게임은 SW로서, 콘텐츠로서, 정보통신 서비스로서, 전자상거래에 따른 재화로서, 그리고 메타버스로서 분류될 수 있다. 이러한 각각의 성질에 따라 규율되는 법률이 상이하다는 점에서, 규제의 정합성에 문제가 발생하기도 한다. 메타버스 플랫폼의 성질은 다양성 및 확장성에 있다. 메타버스는 게임 서비스가 되거나, 콘텐츠 서비스가 되거나 다양한 서비스가 융합된 플랫폼 서비스로 볼 수 있기 때문이다. 이처럼 다양한 서비스가 연계되거나 혼재됨으로써 법적 적용에 있어서 혼란이 발생하고 있다. 메타버스에 대한 규제 체계는 다른 서비스와의 형평성 측면에서도 정리될 필요가 있다. 다만, 메타버스의 새로운 서비스 유형에 대해서 규제 체계로 편입시킬 경우에 나타날 수 있는 문제에 대해서는 규제정합성 및 산업진흥이라는 측면에서 고민이 필요하다. 게임규제는 시장에서 등급분류 받은 내용과 다르게 변질될 것이라는 ‘우려’에 기반한다. 모든 영역에서 우려가 없는 것이 있을까? 우려가 없는 사업은 없다. 유독 게임산업법에서는 우려를 가지고, 규제의 근거로 삼고 있다. 이러한 규제적 속성은 게임물과 경계에 있는 메타버스에도 적용된다. 무엇보다, 메타버스산업이 게임산업과 유사하다는 점에 기인한다. 메타버스는 다양한 서비스의 집합과도 같기 때문에 게임산업법만이 아닌 청소년보호법 등 다양한 규제법제의 적용을 받을 수밖에 없다. 그렇지만, 메타버스가 게임산업법을 우회하거나 사행성을 조장할 것이라는 우려 때문에 게임물과 동일하거나 유사한 수준의 규제를 받아야한다는 것은 당위적이지 않다. 우려만이 아닌, 실제 문제가 있는지에 대한 검토가 필요한 영역이다. 물론 그동안 사업자들이 보여온 행태를 보면 우려가 이해가 가는 면도 있다. 따라서, 실증 특례를 해보는 것도 하나의 방안이다. 메타버스 산업에 대한 정부의 신사업 육성에 대한 의지, 게임산업법의 탈 규제 체계의 수립, 자율규제의 확장과 책임의 강화 등을 통해 새로운 서비스에 대해서는 시장에 맡겨두는 것도 방안이 될 수 있다. 물론 무조건적인 자율은 아니다. 자율규제를 위반하거나 또는 기대했던 바와 다른 결과가 나올 경우, 그에 대한 책임을 가중하는 것이다. 메타버스와 게임물은 경계에 위치하고 있다. 메타버스의 게임화 또는 게임의 메타버스화하는 상황에서 양자는 명확한 구분이 쉽지 않다. 규제기관과 사업자간의 이해관계가 충돌하는 영역이다. 메타버스 정책과 게임정책은 기본적으로 진흥을 목적으로 하지만, 실질적으로 기대하는 효과나 목적은 상이하다. 게임의 속성상 ‘오락’을 목적으로 하기 때문이지만, 게임산업에 내재하는 사행성 이슈는 게임내에서 이루어지는 경제와 현실세계의 경제의 혼합을 규제한다. 그렇기 때문에 게임내에서 경제활동은 규제의 대상이 되고, 현실 재화로의 이전은 금지된다. 지금까지 게임산업이 갖는 기술적인 특성에 따르면, 게임산업법의 규제는 당연한 것이기도 하다. 그렇지만, 기술이라는 것은 변화하는 속성을 갖는다. 기술과 비즈니스 모델을 구분하는 것도 쉽지 않다. 게임산업과 메타버스 산업을 구분하기 어렵다면, 규제라는 목적이 어떤 가치를 추구하는 것인지를 살펴보아야 한다. 규제는 사업자에게 부담지우는 것이기는 하지만 최종적인 소비자에게 분담지워진다. 이러한 분담은 소액이나 영향력이 크지 않기 때문에 체감되지 않을 뿐이다. 그렇지만, 그러한 규제가 정당하다고 판단할 수 있는 것은 아니다. 게임산업법이 도구적으로 메타버스 산업에 영향력을 행사하는 것은 규제나 정책의 정합성이 떨어지기 때문이기도 하다. 정책이 정합적이지 않으면, 결국 수범자의 입자에서는 명확하지 않는 산업정책으로 인식될 뿐이다. 따라서, 메타버스 규제의 필요성이 있다면 그 필요성이 명확해야 한다. 그렇지 않을 경우, 어떤 규제의 실익이 있는지를 설명하여야 한다. ‘우려’라는 관점에서 판단하는 것은 정책적이지 않다. 과학적, 통계적 기반에 따른 게임정책이 요구된다. 정부 정책이 과학적이지 않는다면 해당 정책은 신뢰하기 어렵기 때문이다. 또한, 게임물의 규제에 대해서는 게임산업법의 목적규정과 입법취지에 부합해야 한다. 게임산업법은 “게임산업의 진흥 및 국민의 건전한 게임문화를 확립함으로써 국민경제의 발전과 국민의 문화적 삶의 질 향상에 이바지함”을 목적으로 한다. 게임 산업에 대한 규제, 게임의 문화적 이용에 대한 규제 등 목적규정에 위배되는 규제는 반드시 개정돼야 한다. 이처럼, 입법목적이 부정되는 법률을 누가 수범해야하는지 묻고 싶다. 우리 헌법은 문화국가의 원리를 기본원리로 삼고있음에도, 가장 문화적이고 예술적인 게임 분야에서 몰가치한 규제가 이루어지고 있는지 아이러니할 뿐이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.07.21 08:00:00
    법적 관점에서 본 메타버스와 게임의 경계
  • AI가 가져올 수 있는 여러 위험을 시장의 자율에 맡길 것인가, 아니면 국민의 안전을 위해 규제를 통해 관리할 것인가는 복잡한 문제이다. 자율과 규제는 상호보완적인 관계에 있으며, 어느 한쪽에 치우친 접근은 문제가 될 수 있다. 기술과 이용이 상호 연관되어 있듯이 자율과 규제도 균형을 이루어야 한다. AI는 블랙박스 특성을 가지므로 그 작동 원리와 결과를 예측하기 어려운 경우가 많다. 따라서, 안전한 AI를 구현하기 위해 기술적, 제도적 측면에서 다양한 방안이 필요하다. 예를 들어, 설명가능한 AI 기술의 발전과 국제표준화가 이루어지고 있으며, 이는 기술외교의 중요한 요소로 작용한다. AI와 관련된 글로벌 논의와 정책은 국가별로 다르게 전개되고 있다. 2023년 11월, 영국 블레츨리에서 AI 안전에 대한 글로벌 논의인 AI Safety Summit이 있었고, 블레츨리 선언(Bletchley declaration)이 이루어졌다. 2024년 5월, 서울에서 후속 논의인 AI Seoul Summit이 개최된 바 있다. AI의 편향, 공정, 신뢰의 가치를 넘어 AI 안전이라는 의제를 다루었다. 또한, AI 안전을 위한 정책과 기술 모니터링을 위한 AI 안전연구소 설립도 발표되었다. AI 안전연구는 특정 부처만의 역할이 아닌 범부처의 역할로 보아야 한다. AI는 고도의 알고리즘을 통해 구현되는 의사결정시스템이다. 조건에 맞게 작동하며, 그 조건에 부합하지 않을 경우 ‘결함’이 있는 상태가 된다. 그동안 SW 안전에 대한 논의에서는 SW의 결함이 수용 가능하거나 대응 가능한 수준이라면 큰 문제로 보지는 않았다. 그렇지만, AI는 블랙박스로서 원인과 결과를 예측하기가 쉽지 않고, 인과관계가 아닌 상관 관계의 추론에 머무는 수준이다. 그렇기 때문에 AI 안전을 위한 기술적 측면, 제도적 측면 등 여러 가지 방안이 강구되고 있다. 설명가능한 인공지능은 다양한 영역에서 연구되고 있으며, 국제표준화작업이 진행 중에 있다. 표준화는 기술외교의 한 방편이다. 특히, 국제표준은 글로벌 AI 정책이나 기술에 있어서 헤게모니를 가질 수 있다는 점에서 중요한 기술외교의 영역으로 볼 수 있다. 설명가능성을 높이기 위한 입법이 이루어지고 있으며, 이는 기술의 과정에서 이용자에게 신뢰성을 얻기 위해서는 필수적이다. 최근에는 생성물로 인한 안전을 담보하기 위해 환각현상을 완화할 수 있는 방법으로 검색증강생성(RAG) 기술이 제시되고 있다. 검색증강생성은 고전적인 AI인 전문가시스템(expert system)으로 볼 수 있다. AI 겨울을 초래했던 전문가시스템이 새롭게 그 역할을 인정받는 시대에 이르고 있다. 이처럼 기술 발전은 서로 융합되거나 기술로 인한 문제를 해결해가는 수단이 될 가능성도 높다. 다만, 기술의 문제를 기술로 해결하려는 것은 지양될 필요가 있다. 기술의 문제에 대한 최종적인 판단과 책임 주체는 사람이어야 하기 때문이다. 그렇지 않을 경우, 기술의 문제에 대한 사람의 책임이 배제될 수 있기 때문이다. AI로 인한 여러 문제에 대한 투명성, 공정성, 책무성 등을 강조하는 정책들이 제안된 바 있다. 결국, 최종적인 이용자인 일반 국민의 안전을 위한 것이라고 하겠다. 클로드 AI(Claude AI)에서 적용하고 있는 헌법적 AI(constitutional AI)는 답변 과정에서 법적인 사항까지도 체크한다. 이처럼 AI가 생성하는 결과물에 대해 위법한 내용에 대해 문제가 있다는 점을 명확히 하는 것도 의미있다. 헌법적이라는 표현을 쓰고있지만, 사람이 갖추어야할 윤리적인 내용을 체계적으로 정리하고 기술에 적용한 모델로 볼 수 있다. 최상위 규범을 정하고, 그 규범에 따른 하위 규범이 구체화된 것으로 볼 수 있다. 일종의 입법체계가 AI 모델에서 구현된 것이다. 이와 같이, 결과만을 생성하는 것이 아닌 질문의 맥락을 파악하고 그 내용이 법률적으로 문제가 되는지에 대한 조언까지 제시한다면, 이용자는 자신의 행위에 대한 윤리적인 판단을 할 수 있기 때문이다. 물론, 자기검열로서 역할을 할 수도 있을 것이다. 다만, 그 과정에서 타인의 명예훼손이나 나의 위법행위에 대한 판단을 내릴 수 있다는 점에서 표현의 자유를 훼손한다고 단정하기는 어렵다. 결국, 최종적인 판단은 이용자 스스로 선택에 따른 결과이기 때문이다. 사회 규제가 갖는 성격상 안전을 위한 것이라는 점에서 기술의 안전을 확보하기 위한 규제는 필요충분성을 갖추어야 하기 때문이다. 즉, 최소한의 안전성이 보장된 상태에서 신기술이나 신사업이 허용되도록 하고, 발전과정에서 안전성 보장을 조정하고 강화하여야 한다. 결국, AI에 대한 규제의 성질은 그 특성에 따른 규제 접근이 필요하다. 기업들이 선호하는 자율 규제라는 것은 기업이나 개발자 스스로 AI보다 더 윤리적이어야 하다는 전제에 기반한다. ‘선허용 후규제’가 논란이 된 적이 있지만, 사전적인 규제가 없다는 점이 반드시 긍정적으로 작동하는 것은 아니다. 이러한 규제가 강한 규제로 실시되거나 예측하지 못한 규제가 되는 경우에 막대한 투자가 물거품이 될 수 있기 때문이다. 이처럼 미지의 기술인 AI에 대한 사전적 규제없이 시장 출시를 허용할 경우, 사업자는 이에 대한 리스크나 예측가능성을 충분히 대응할 수 있을지 의문이다. 따라서, AI의 성질이나 목적에 따라 구체적인 기준을 제시함으로써 사업자나 이용자에게 예측가능하고 신뢰가능하도록 해야할 것이다. 정부의 규제는 AI 윤리에서 EU AI법과 같이 법적 규제로 넘어가고 있지만, 모델 자체는 여전히 사람과 같이 윤리적 가치가 우선적으로 적용될 수밖에 없다. AI 안전은 궁극적으로 국민의 안전을 위해 존재하며, 이를 위해 적절한 규제가 필요하다. 자율 규제는 기업이 스스로 윤리적 기준을 지켜야 한다는 전제에 기반하지만, 예측 가능한 범위 내에서 안전 규제를 통해 AI 기술의 문제를 관리하고, 국민의 신뢰를 얻는 것이 중요하다.
    2024.07.07 09:37:27
    AI 자율과 규제의 균형을 찾아서
  • 봄이 지나고 여름이 깊어지면서, 자연의 울음소리도 가득하다. 한 낮, 뻐꾸기 울음소리는 문설주에 기댄 눈먼 처자의 모습을 상기시킨다. 이윽고 한 밤이 되면, 개구리 소리는 별만큼이나 밤하늘을 가득 채운다. 이처럼 인간은 감정적인 동물이고, 수많은 시간동안 다양한 경험과 학습을 통해 사고와 의식을 갖기 때문에 창작활동이 가능하다. 어쩌면 자연의 모습은 인간의 모습과 다르지 않다. 인간도 자연의 한 단면이고, 인간이 만들어내는 인공물도 인간의 것이라면 그것 또한 인간적이고 자연을 닮은 것이 아닐까 싶다. 인공지능도 인간의 모습과 다르지 않다. 인간이 만들어낸 수많은 정보와 지식을 바탕으로 학습한 것이기 때문이다. 인공지능이 지식이나 판단에서 인간보다 뛰어난 것은 빠른 연산능력 덕분이었다. 이세돌 9단을 이긴 알파고의 충격에도 창작활동은 인간만의 영역으로 안위했다. 글을 쓰거나 그림을 그리는 것은 인간만의 고유한 영역이라고 생각한 것이다. 인공지능이 사고를 하거나 창작활동을 할 것으로 예상하지 못했기 때문이다. 지금도 인공지능의 창작은 의식적인 것으로 보지 않는다. 확률적으로 가장 근접한 결과물이 생성되도록 하는 알고리즘에 불과하기 때문이다. 인간이 생각을 말하는 것은 어떤 맥락과 상황에 따라 달라진다. 상황에 따른 판단을 하고, 그 상황에 적절한 단어나 표현을 선택한다. 인공지능도 그렇다. 인공지능이 특정한 결과물을 생성할 때, 인간처럼 부여된 프롬프트에 따라 달라진다. 동일한 프롬프트라고 하더라도 전체적인 맥락에 따라 달라진다. 확률적으로, 또는 인간의 경험과 습성에 따라 언어의 선택이 달라진다. AI 모델이 갖는 특성 때문이라고 하지만, 인간이 표현하는 것과 크게 다르지 않다는 점에서 정말 인간을 모방한 것임을 알게 된다. 인간과 인공지능을 구분지는 생각과 사고는 무엇일까? 인간의 발명품인 인공신경망은 인간의 것과 유사한 구조를 갖는다. 뇌과학자들도 인간의 사고체계에 대한 그 원형을 찾지 못하고 있다. 인간은 타인의 것을 모방하면서 학습한다. 모방의 과정이 지난하더라도, 그러한 과정을 통해 인간은 하나의 인격체로서 성장해나가는 것이다. 그 과정에서 자신만의 특이점을 발견하기도 한다. 기계의 특이점은 인간의 능력을 넘어서는 것을 의미하지만, 인간의 특이점은 자신의 능력을 오롯이 발현하는 것이다. 인간에게 학습할 대상은 무한한다. 그렇지만, 기계에게는 그 또한 한정된 것이다. 이론적으로 빅뱅 이후의 모든 정보는 기계가 학습할 수 있는 데이터로 활용가능하다. 기계적 이라고 하지만, 빠른 속도로 학습할 수 있다는 의미이기도 하다. 그 과정에서 인간과는 다른 매커니즘이 활용된다. 인간의 학습은 저작물을 향유하는 행위이다. 향유란 저작물이 갖는 의미와 내용을 인간이 감각을 통해 즐기거나 느끼는 것을 말한다. 인공지능에서 논란이 되는 법률 중 하나인 저작권법은 인간의 향유를 전제로 한다. 타인의 저작물을 향유하기 위해서는 허락을 받거나, 저작재산권의 제한 사유나 공정이용(fair use)이 가능해야 한다. 기계가 학습하는 데이터를 포함한 저작물은 인간의 문화적 향유를 전제한다. 즉, 창작과정에서 의도했던 작가의 의도를 파악하고, 그 것을 해석하는 것도 하나의 문화적인 활동이다. 그렇지만, 이러한 문화적인 활동이 아닌 기계적으로 특징점(features)을 파악하는 것은 문화적 활동으로 보기 어렵다. 그렇기 때문에 인간과 기계가 다르게 취급된다. 기계의 활동이 인간의 활동을 넘어서기 어려운 이유이기도 하다. 다만, 기계적인 특성은 반복적이지만 시간적으로 인간과는 경쟁이 되지 않는다. 데이터에는 인간의 모든 것이 담겨있다고 해도 과언이 아니다. 기계는 데이터에서 인간이 의도한 문화적인 사상과 감정을 향유하지는 않는다. 수많은 데이터에 기반한 기계학습과 그에 따라 만들어내는 결과물을 보면, AI는 인간의 모습과 너무나도 닮아있다. AI가 인간의 모든 것이 담겨있는 데이터를 학습하면 무엇이 될까? 또 다른 인류가 출현하지 않을까 생각한다. 인공지능, 더 정확히는 대규모언어모델(LLM)은 인간의 언어를 이해하고 표현하는 최초의 객체이기 때문이다. 수많은 데이터를 비에 비유하고, 그 비가 AI라는 냇가를 가득 채울 때 어떤 상황이 연출될지는 알 수 없다. 다음처럼 단순하지 않을까? “냇가는 물로 가득 찼다. 가만히 들여다보면, 나의 모습이 보인다.” 어쩌면, 인공지능의 모습은 바로 우리의 모습일 것이다. 다만, 인간과의 공존을 위해 인공지능은 윤리적 기계가 돼야 한다. 이처럼 인공지능은 그다지 윤리적이지 않은 인간과는 달라야하는 숙명을 갖는다. 어쩌면 비상정지 버튼까지도 달아야 할지도 모른다. * 외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.06.16 10:00:00
    AI에서 인간의 모습을 보다
  • 누구나 자신이 있는 곳이 안전하다는 것을 느낄 수 있는 상태의 유지는 국가의 중요한 책무이다. 물리적인 안전의 중요성은 물론 디지털 환경에서의 안전 또한 무시할 수 없다. 인터넷 기반의 다양한 서비스는 일상생활을 유지하는 중요한 기반시설이라는 점에서 디지털 안전체계는 중요하다. 디지털 환경에서의 안전은 프라이버시(privacy)로서의 개인의 사생활 보호를 넘어선 물리적인 환경이나 사회적인 영역에서의 안전까지로 확대되고 있다. 종래에는 개인의 생활 및 신체에 대한 안전이 중요한 개념이었다고 할 수 있으나, 다양한 영역으로 확장 중이다. 클라우드 컴퓨팅 환경이 대표적이다. 그렇지만, 클라우드 환경은 다양한 시설이 유기적으로 연계돼야 한다. 어느 하나가 문제를 일으키면 서비스 자체가 ‘먹통’이 된다. 데이터센터 화재사건으로 디지털 서비스가 멈추기도 했다. 접근이 편리해진 반면 관리가 그만큼 어려워졌다는 반증이기도 하다. 우리의 안전체계는 물리적인 안전을 위한 ‘재난안전기본법’과 SW안전을 위한 ‘소프트웨어 진흥법’, 그리고 네트워크 상에서의 침해사고 대응을 위한 ‘정보통신망법’ 등 다양한 법률 체계를 갖추고 있다. 네트워크와 SW는 융합되면서 서로 뗄 수 없는 관계를 형성한다. 네트워크를 통해 서비스 되는 SW를 의미하는 사스(SaaS)로서 클라우드컴퓨팅은 어떤가? 우리 SW진흥법에서의 SW안전은 “외부로부터의 침해 행위가 없는 상태에서 소프트웨어의 내부적인 오작동 및 안전기능 미비 등으로 인하여 발생할 수 있는 사고로부터 사람의 생명이나 신체에 대한 위험에 충분한 대비가 되어 있는 상태”로 정의된다. SW 안전은 SW자체 또는 SW와 밀접하게 구현된 시스템이나 플랫폼 등 다양한 요소에서 사용되는 SW로 인해 발생할 수 있는 위험을 관리하기 위한 개념이자 목표이다. 다만, SW 품질은 SW 안전을 위한 기능적인 사항을 의미하기 때문에 품질이 기준을 담보하지 못할 경우에는 안전에까지 영향을 미칠 수 있다.. 그렇지만 SW 안전의 정의에서는 명확하게 외부로부터의 침입을 의미하는 네트워크를 통한 침해사고의 경우는 SW 안전의 범위에서 제외됨을 알 수 있다. 하지만 네트워크 안전과 SW 안전은 별개의 것으로 보기 어렵다. 기술적인 안전은 무엇보다 중요하다. AI가 일상으로 들어서고 있다. SW가 단순한 자동화의 의미를 가졌다면, AI는 의사결정이나 창작활동을 대신 해주는 수준이다. 그 만큼, 결과에 대한 의존도가 높아지기 때문에 AI의 내재적인 안전을 담보할 수 있는 방안이 마련돼야 한다. 그렇지 않을 경우, 인간의 통제를 벗어날 수 있기 때문이다. 지금의 수준이 그 정도까지는 아니지만 기술의 발전은 빠르게 이뤄지고 있다는 점을 고려해야 한다. AI 안전은 인간다운 삶을 위해서도 필요한 요소이다. AI를 통해 생성하는 다양한 생성물이 타인의 권리를 침해하거나 또는 AI가 잘못 판단하거나 알고리즘이 조작된 경우도 있다. 기술의 발전을 위해 규제는 지양될 필요가 있다. 기술을 통제하지 않는다면 그 뒷감당은 이용자인 국민의 몫으로 남기 때문이다. 기술개발은 선의에 따른 것이기도 하다. 그렇지만 기술은 이용하는 과정에서 의도성이 들어가고, 그에 따라 차별이나 편향이 반영되곤 한다. 물론, 무의식적으로 이뤄지는 편견은 더 큰 문제일 수 있다. 확인하기가 쉽지 않기 때문이다. 블랙박스로서 AI에 대한 규제를 주장하는 이유이다. AI에 대한 규제방법으로 설명의무를 부과하기도 한다. 설명가능한 AI의 개발도 마찬가지다. 거대언어모델(LLM)인 AI모델의 블랙박스를 열 수 있는 방법들이 제시되고 있다. AI의 안전은 AI자체의 안전도 중요하지만, AI를 활용하거나 사용되는 과정에서 사회적으로 미치는 영향에 대해서도 살펴봐야 한다. AI가 안전하지 못한 상황에서 작동되는 경우, 비상버튼이나 셧다운 시킬 수 있어야 한다. 인종차별이나 성차별과 같은 대화를 생성했던 챗봇인 테이사건이나 이루다사건에서 챗봇을 셧다운 시켰다. 문제의 확산을 막기 위한 의사결정이었다. 외부로부터 입력되는 데이터에 의해 내부 데이터나 시스템이 오염되지 않도록 개발했어야 했다. 두 사건에서처럼, AI가 문제는 아니다. 이를 이용하는 이용자의 악의적인 행동이 문제이다. AI가 문제를 일으키는 것이 아닌 사람이 문제를 일으키고 있는 상황인 것이다. AI는 일상이다. 그렇지만 AI가 가야할 길은 멀기만 하다. 그 과정에서 우리의 선택은 어떤 것이어야할지 여간 고민스러운 일이 아니다. 분명한 점은 기술이 인간을 이롭게 할 것이라는 점, 그렇지만 안전을 위해 기술에 대한 통제는 있어야한다는 점이다. 이를 위해 AI기술의 안전성, 서비스의 공정성, 서비스제공자의 신뢰성, 이용자의 윤리성, 정책의 일관성은 필요조건이다. 이로써 AI안전은 담보될 수 있기 때문이다. 마침내 EU AI법의 퍼즐이 맞추어졌고, 이제 시행만을 남겨둔 상태이다. 이는 AI에 대한 규제가 윤리 중심에서 법률 중심으로 이동하고 있음을 보여준다. AI 법률도 AI 기술의 안전한 이용에 방점을 둬야 한다. 다만, 기술에 대한 규제보다는 문제되는 비즈니스 모델(BM)에 대한 규제여야 한다. 무엇보다 규제는 명확하고 예측가능해야 한다.
    2024.06.01 07:00:00
    AI안전과 신뢰사회
1

top버튼
팝업창 닫기
글자크기 설정
팝업창 닫기
공유하기