필진 전체목록
김윤명
김윤명 디지털정책연구소 소장
메일 공유
연재 중
AI 웨이브
5개의 칼럼 #경제
  • 인공지능이 검색분야에 큰 영향을 미치고 있다. 인터넷에 공개된 정보의 요약과 해당 페이지의 링크(URL)를 제공하는 인터넷검색과의 차별화를 가져오고 있다. 인공지능(AI) 검색은 결과물을 AI 시스템이 생성하여 제공한다는 점에서 인터넷검색과 차이가 있다. 또한, AI 검색결과는 이용자가 입력한 검색 프롬프트의 맥락을 분석하여 그에 적합한 정보를 제공한다. 검색결과는 AI가 웹사이트 정보를 분석하여 검색 맥락에 맞게 생성하기 때문에 그 성격은 편집물로 볼 수 있다. 다만, 내용을 구성하는 부분들이 맥락에 따라, 일정한 체계를 갖고 있다는 점에서 편집저작물로서 인정받을 수 있다. 물론, 전체적으로 하나의 창작적 표현으로 볼 경우라면 편집물과 별도로 창작적 표현으로 볼 여지도 충분하다. 이 경우, AI 검색은 이용자에게 편집물 또는 완성된 창작적 표현으로서 제공된다. AI검색은 다양한 정보의 편집이지만 타인의 저작물이나 정보가 포함된 것이라는 점에서 ‘인용’의 방식으로 편집된다. 저작재산권 제한규정인 인용에 있어서, 저작권법은 구체적인 방법에 대해 기준을 제시하지는 않고 있다. 인용이 될 수 있는 방식, 즉 출처표시가 가능하다면 그 방식에 있어서 문제될 것은 아니다. 따라서, 링크방식으로 이루어지더라도 저작권법상 인용요건을 갖춘 것으로 볼 수 있다. 검색결과의 편집은 이용자의 요구에 의하여 알고리즘에 의하여 이루어진다. 기술적으로 이루어지기 때문에 내용통제가 이루어지지 않는다. 일반적인 인터넷검색도 필터링과 같은 기술적 방식이외에 검색결과의 내용에 대한 조작은 쉽지 않다. 검색결과의 조작이 AI 모델이나 검색엔진 차원에서 문제되는 사항이라면, 이는 서비스제공자의 책임 영역에서 이루어진 것으로 제공자 책임이다. 다만, AI 검색은 결과물에 대해 제공자는 어떤 내용의 검색을 요구받는지 알기 어렵다. 사후적으로 문제되는 내용에 대해 확인이 가능할 뿐이다. 그렇기 때문에 AI 검색에 있어서 그 결과물에 대한 책임은 일반적인 온라인서비스제공자(OSP)와 같이, 면책될 수밖에 없다. 기술적으로 AI검색과 인터넷검색은 여러 가지 측면에서 다르지만, 사실상 법적 책임에 있어서는 검색의 기능과 역할을 고려할 때 면책되도록 하는 것이 바람직하다. 검색이 정보의 완결성을 높이고, 공익적 역할을 한다는 점에서 엄격한 책임을 지운다면 인터넷상의 다양한 정보에 대한 접근 등 알권리가 훼손될 수 있기 때문이다. 다만, 검색결과에 대한 관여를 어떻게 볼 것인지에 따라 책임의 결과가 달라질 수는 있다. 결과를 의도적으로 조작하는 경우와 사회적 가치를 높이기 위해 조정하는 경우에 대한 가치판단의 차이가 있기 때문이다. OSP의 관여는 유해한 정보, 공서양속에 위배되는 정보, 개인정보 등 법에서 금지되는 정보는 필터링될 수 있도록 조정(tuning)이 이루지고 있기 때문에 이러한 법적 의무 이행에 따른 관여는 문제라고 보기 어렵다. 또한, 저작권법은 OSP에게 일반적인 모니터링 의무를 금지하고 있다는 점도 고려되어야 한다. 검색결과에 대한 모니터링을 한다는 것은 일종의 검열이 될 수 있기 때문이다. 다만, 오랜 기간에 걸처 인터넷검색이 다양한 평가를 받았던 것과는 다른 매커니즘으로서 AI 검색의 가치는 좀 더 살펴볼 필요가 있다. 이처럼, AI 검색의 법률 문제에 대한 검토는 검색결과와 검색서비스를 구축하는 과정에서 나타날 수 있는 문제는 없는지 살펴보는데 있다. 결론적으로, AI 검색은 인터넷검색과 차이점이 있으며, 이는 검색결과에 대해 서비스제공자의 개입이 있다는 점이다. 물론, 개입이 악의적으로 왜곡하거나 편향을 부추기는 것은 아니라는 점에서 AI 검색의 신뢰성을 배재할 수는 없다. 다만, 결과에 있어서 제공되는 링크가 사실에 기반한 것이 아닌 경우가 발견된다. 즉, 검색결과나 같이 제공되는 링크에 대한 신뢰성을 담보하기 어려운 경우가 있다. 이러한 점은 기술적으로 해결해가는 과정이고, 검색증강생성(RAG) 방식을 통해 검색결과의 신뢰성을 높이고 있지만 여전히 불충분한 면이 발견된다. 저작권법에서 OSP에게 면책을 부여한 이유를 돌이켜보면, 검색서비스가 갖는 공공성이 인정되었기 때문이다. 저작권을 침해하는 결과가 나타나더라도, 일정부문 공익적인 가치평가가 이루어진 경우에는 저작재산권 제한규정을 의율하여 면책할 수 있도록 한 것이다. 물론, 검색자체가 저작권 침해가 아닌 사실정보만을 제공하는 경우, 그 제공방식이 원저작물의 일부만을 요약의 형태로 제공하는 경우, 그리고 원저작물에 접속할 수 있도록 링크를 제공하는 경우 등을 고려하여 판단하였다. 실상, 저작자의 이익을 침해하는 행위를 검색사업자가 제공하거나 또는 그러한 서비스로 이익을 얻었다고 보기 어려웠다. 이러한 점에서 기여책임이나 대위책임도 지울 수 없었던 것이다. 물론, 일정한 경우 방조책임을 질 수 있으나 저작권법에 따른 책임을 지면 될 것이다. 검색 결과에 대한 저작권법상의 문제는 서비스제공자가 저작권법상 면책을 받는 OSP인지 여부에 따라 결정된다. 전통적인 검색 서비스는 결과물에 대한 개입이 없기 때문에 면책되지만, AI 검색은 일정 부분 개입이 발생하므로 면책 가능성이 상대적으로 낮다. 특히, AI 검색이 저작권 침해된 콘텐츠를 상업적으로 이용할 경우, 면책이 더욱 어려워질 수 있다. AI 검색제공자가 OSP로 간주된다면 저작권 침해에 대한 면책 가능성이 있을 수 있지만, 다음 조건들을 충족해야 한다. 첫째, 검색제공자가 저작권 침해 여부를 인지하지 못했어야 하며, 둘째, 저작권자가 침해를 주장할 경우 게시중단 조치(notice & take down)를 취하여야 한다. 셋째, 검색제공자가 검색결과를 임의로 가공하지 않고 중립적으로 제공해야 한다. 임의성에 대해서는 명확한 기준이 제시될 필요가 있으나, 단순한 기계적인 관여에 한하여 중립성이 인정된다고 보는 것이 타당하다. 정리하자면, AI 검색제공자는 OSP로 인정될 가능성이 있지만, 저작권 침해 사실을 인지했거나 저작물에 적극적으로 개입한 경우 법적 책임을 질 수 있다. 그동안 검색은 인류의 정보활동에 미치는 공공성을 인정받으면서 저작권법상 면책을 받아왔다. 전통적인 검색과는 다른 면이 있지만, AI 검색 또한 공공성을 무시하기 어려운 서비스라고 생각된다. 최근 가디언지에서는 AI 검색에 대한 조작가능성에 대해 문제제기한 바 있다. AI 검색에 있어서 그 결과에 대한 조작 가능성에 대해 명확한 확인이 필요하다. 검색에 대한 저작권법의 면책조항은 개입이 없이 그대로 전달하는 것을 전제하기 때문이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.11.10 10:00:00
    인공지능 검색과 저작권법
  • 문화예술진흥법에 따라 게임물은 법적으로 문화예술의 한 유형으로 규정되고 있다. 게임인은 예술인의 지위를 얻게 되었다. 게임물의 성격을 보면 그래픽이나 영상 등 예술적 요소와 소프트웨어 등 기술적 요소가 결합돼 있다. 더 나아가 게임물이 다른 서비스로 분화되거나 다른 서비스가 게임물로 변화하기도 한다. 게임물은 하나의 서비스나 기술이 아닌 다양한 유형이 융합된 결과물이다. 게임은 SW로서, 콘텐츠로서, 정보통신 서비스로서, 전자상거래에 따른 재화로서, 그리고 메타버스로서 분류될 수 있다. 이러한 각각의 성질에 따라 규율되는 법률이 상이하다는 점에서, 규제의 정합성에 문제가 발생하기도 한다. 메타버스 플랫폼의 성질은 다양성 및 확장성에 있다. 메타버스는 게임 서비스가 되거나, 콘텐츠 서비스가 되거나 다양한 서비스가 융합된 플랫폼 서비스로 볼 수 있기 때문이다. 이처럼 다양한 서비스가 연계되거나 혼재됨으로써 법적 적용에 있어서 혼란이 발생하고 있다. 메타버스에 대한 규제 체계는 다른 서비스와의 형평성 측면에서도 정리될 필요가 있다. 다만, 메타버스의 새로운 서비스 유형에 대해서 규제 체계로 편입시킬 경우에 나타날 수 있는 문제에 대해서는 규제정합성 및 산업진흥이라는 측면에서 고민이 필요하다. 게임규제는 시장에서 등급분류 받은 내용과 다르게 변질될 것이라는 ‘우려’에 기반한다. 모든 영역에서 우려가 없는 것이 있을까? 우려가 없는 사업은 없다. 유독 게임산업법에서는 우려를 가지고, 규제의 근거로 삼고 있다. 이러한 규제적 속성은 게임물과 경계에 있는 메타버스에도 적용된다. 무엇보다, 메타버스산업이 게임산업과 유사하다는 점에 기인한다. 메타버스는 다양한 서비스의 집합과도 같기 때문에 게임산업법만이 아닌 청소년보호법 등 다양한 규제법제의 적용을 받을 수밖에 없다. 그렇지만, 메타버스가 게임산업법을 우회하거나 사행성을 조장할 것이라는 우려 때문에 게임물과 동일하거나 유사한 수준의 규제를 받아야한다는 것은 당위적이지 않다. 우려만이 아닌, 실제 문제가 있는지에 대한 검토가 필요한 영역이다. 물론 그동안 사업자들이 보여온 행태를 보면 우려가 이해가 가는 면도 있다. 따라서, 실증 특례를 해보는 것도 하나의 방안이다. 메타버스 산업에 대한 정부의 신사업 육성에 대한 의지, 게임산업법의 탈 규제 체계의 수립, 자율규제의 확장과 책임의 강화 등을 통해 새로운 서비스에 대해서는 시장에 맡겨두는 것도 방안이 될 수 있다. 물론 무조건적인 자율은 아니다. 자율규제를 위반하거나 또는 기대했던 바와 다른 결과가 나올 경우, 그에 대한 책임을 가중하는 것이다. 메타버스와 게임물은 경계에 위치하고 있다. 메타버스의 게임화 또는 게임의 메타버스화하는 상황에서 양자는 명확한 구분이 쉽지 않다. 규제기관과 사업자간의 이해관계가 충돌하는 영역이다. 메타버스 정책과 게임정책은 기본적으로 진흥을 목적으로 하지만, 실질적으로 기대하는 효과나 목적은 상이하다. 게임의 속성상 ‘오락’을 목적으로 하기 때문이지만, 게임산업에 내재하는 사행성 이슈는 게임내에서 이루어지는 경제와 현실세계의 경제의 혼합을 규제한다. 그렇기 때문에 게임내에서 경제활동은 규제의 대상이 되고, 현실 재화로의 이전은 금지된다. 지금까지 게임산업이 갖는 기술적인 특성에 따르면, 게임산업법의 규제는 당연한 것이기도 하다. 그렇지만, 기술이라는 것은 변화하는 속성을 갖는다. 기술과 비즈니스 모델을 구분하는 것도 쉽지 않다. 게임산업과 메타버스 산업을 구분하기 어렵다면, 규제라는 목적이 어떤 가치를 추구하는 것인지를 살펴보아야 한다. 규제는 사업자에게 부담지우는 것이기는 하지만 최종적인 소비자에게 분담지워진다. 이러한 분담은 소액이나 영향력이 크지 않기 때문에 체감되지 않을 뿐이다. 그렇지만, 그러한 규제가 정당하다고 판단할 수 있는 것은 아니다. 게임산업법이 도구적으로 메타버스 산업에 영향력을 행사하는 것은 규제나 정책의 정합성이 떨어지기 때문이기도 하다. 정책이 정합적이지 않으면, 결국 수범자의 입자에서는 명확하지 않는 산업정책으로 인식될 뿐이다. 따라서, 메타버스 규제의 필요성이 있다면 그 필요성이 명확해야 한다. 그렇지 않을 경우, 어떤 규제의 실익이 있는지를 설명하여야 한다. ‘우려’라는 관점에서 판단하는 것은 정책적이지 않다. 과학적, 통계적 기반에 따른 게임정책이 요구된다. 정부 정책이 과학적이지 않는다면 해당 정책은 신뢰하기 어렵기 때문이다. 또한, 게임물의 규제에 대해서는 게임산업법의 목적규정과 입법취지에 부합해야 한다. 게임산업법은 “게임산업의 진흥 및 국민의 건전한 게임문화를 확립함으로써 국민경제의 발전과 국민의 문화적 삶의 질 향상에 이바지함”을 목적으로 한다. 게임 산업에 대한 규제, 게임의 문화적 이용에 대한 규제 등 목적규정에 위배되는 규제는 반드시 개정돼야 한다. 이처럼, 입법목적이 부정되는 법률을 누가 수범해야하는지 묻고 싶다. 우리 헌법은 문화국가의 원리를 기본원리로 삼고있음에도, 가장 문화적이고 예술적인 게임 분야에서 몰가치한 규제가 이루어지고 있는지 아이러니할 뿐이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.07.21 08:00:00
    법적 관점에서 본 메타버스와 게임의 경계
  • AI가 가져올 수 있는 여러 위험을 시장의 자율에 맡길 것인가, 아니면 국민의 안전을 위해 규제를 통해 관리할 것인가는 복잡한 문제이다. 자율과 규제는 상호보완적인 관계에 있으며, 어느 한쪽에 치우친 접근은 문제가 될 수 있다. 기술과 이용이 상호 연관되어 있듯이 자율과 규제도 균형을 이루어야 한다. AI는 블랙박스 특성을 가지므로 그 작동 원리와 결과를 예측하기 어려운 경우가 많다. 따라서, 안전한 AI를 구현하기 위해 기술적, 제도적 측면에서 다양한 방안이 필요하다. 예를 들어, 설명가능한 AI 기술의 발전과 국제표준화가 이루어지고 있으며, 이는 기술외교의 중요한 요소로 작용한다. AI와 관련된 글로벌 논의와 정책은 국가별로 다르게 전개되고 있다. 2023년 11월, 영국 블레츨리에서 AI 안전에 대한 글로벌 논의인 AI Safety Summit이 있었고, 블레츨리 선언(Bletchley declaration)이 이루어졌다. 2024년 5월, 서울에서 후속 논의인 AI Seoul Summit이 개최된 바 있다. AI의 편향, 공정, 신뢰의 가치를 넘어 AI 안전이라는 의제를 다루었다. 또한, AI 안전을 위한 정책과 기술 모니터링을 위한 AI 안전연구소 설립도 발표되었다. AI 안전연구는 특정 부처만의 역할이 아닌 범부처의 역할로 보아야 한다. AI는 고도의 알고리즘을 통해 구현되는 의사결정시스템이다. 조건에 맞게 작동하며, 그 조건에 부합하지 않을 경우 ‘결함’이 있는 상태가 된다. 그동안 SW 안전에 대한 논의에서는 SW의 결함이 수용 가능하거나 대응 가능한 수준이라면 큰 문제로 보지는 않았다. 그렇지만, AI는 블랙박스로서 원인과 결과를 예측하기가 쉽지 않고, 인과관계가 아닌 상관 관계의 추론에 머무는 수준이다. 그렇기 때문에 AI 안전을 위한 기술적 측면, 제도적 측면 등 여러 가지 방안이 강구되고 있다. 설명가능한 인공지능은 다양한 영역에서 연구되고 있으며, 국제표준화작업이 진행 중에 있다. 표준화는 기술외교의 한 방편이다. 특히, 국제표준은 글로벌 AI 정책이나 기술에 있어서 헤게모니를 가질 수 있다는 점에서 중요한 기술외교의 영역으로 볼 수 있다. 설명가능성을 높이기 위한 입법이 이루어지고 있으며, 이는 기술의 과정에서 이용자에게 신뢰성을 얻기 위해서는 필수적이다. 최근에는 생성물로 인한 안전을 담보하기 위해 환각현상을 완화할 수 있는 방법으로 검색증강생성(RAG) 기술이 제시되고 있다. 검색증강생성은 고전적인 AI인 전문가시스템(expert system)으로 볼 수 있다. AI 겨울을 초래했던 전문가시스템이 새롭게 그 역할을 인정받는 시대에 이르고 있다. 이처럼 기술 발전은 서로 융합되거나 기술로 인한 문제를 해결해가는 수단이 될 가능성도 높다. 다만, 기술의 문제를 기술로 해결하려는 것은 지양될 필요가 있다. 기술의 문제에 대한 최종적인 판단과 책임 주체는 사람이어야 하기 때문이다. 그렇지 않을 경우, 기술의 문제에 대한 사람의 책임이 배제될 수 있기 때문이다. AI로 인한 여러 문제에 대한 투명성, 공정성, 책무성 등을 강조하는 정책들이 제안된 바 있다. 결국, 최종적인 이용자인 일반 국민의 안전을 위한 것이라고 하겠다. 클로드 AI(Claude AI)에서 적용하고 있는 헌법적 AI(constitutional AI)는 답변 과정에서 법적인 사항까지도 체크한다. 이처럼 AI가 생성하는 결과물에 대해 위법한 내용에 대해 문제가 있다는 점을 명확히 하는 것도 의미있다. 헌법적이라는 표현을 쓰고있지만, 사람이 갖추어야할 윤리적인 내용을 체계적으로 정리하고 기술에 적용한 모델로 볼 수 있다. 최상위 규범을 정하고, 그 규범에 따른 하위 규범이 구체화된 것으로 볼 수 있다. 일종의 입법체계가 AI 모델에서 구현된 것이다. 이와 같이, 결과만을 생성하는 것이 아닌 질문의 맥락을 파악하고 그 내용이 법률적으로 문제가 되는지에 대한 조언까지 제시한다면, 이용자는 자신의 행위에 대한 윤리적인 판단을 할 수 있기 때문이다. 물론, 자기검열로서 역할을 할 수도 있을 것이다. 다만, 그 과정에서 타인의 명예훼손이나 나의 위법행위에 대한 판단을 내릴 수 있다는 점에서 표현의 자유를 훼손한다고 단정하기는 어렵다. 결국, 최종적인 판단은 이용자 스스로 선택에 따른 결과이기 때문이다. 사회 규제가 갖는 성격상 안전을 위한 것이라는 점에서 기술의 안전을 확보하기 위한 규제는 필요충분성을 갖추어야 하기 때문이다. 즉, 최소한의 안전성이 보장된 상태에서 신기술이나 신사업이 허용되도록 하고, 발전과정에서 안전성 보장을 조정하고 강화하여야 한다. 결국, AI에 대한 규제의 성질은 그 특성에 따른 규제 접근이 필요하다. 기업들이 선호하는 자율 규제라는 것은 기업이나 개발자 스스로 AI보다 더 윤리적이어야 하다는 전제에 기반한다. ‘선허용 후규제’가 논란이 된 적이 있지만, 사전적인 규제가 없다는 점이 반드시 긍정적으로 작동하는 것은 아니다. 이러한 규제가 강한 규제로 실시되거나 예측하지 못한 규제가 되는 경우에 막대한 투자가 물거품이 될 수 있기 때문이다. 이처럼 미지의 기술인 AI에 대한 사전적 규제없이 시장 출시를 허용할 경우, 사업자는 이에 대한 리스크나 예측가능성을 충분히 대응할 수 있을지 의문이다. 따라서, AI의 성질이나 목적에 따라 구체적인 기준을 제시함으로써 사업자나 이용자에게 예측가능하고 신뢰가능하도록 해야할 것이다. 정부의 규제는 AI 윤리에서 EU AI법과 같이 법적 규제로 넘어가고 있지만, 모델 자체는 여전히 사람과 같이 윤리적 가치가 우선적으로 적용될 수밖에 없다. AI 안전은 궁극적으로 국민의 안전을 위해 존재하며, 이를 위해 적절한 규제가 필요하다. 자율 규제는 기업이 스스로 윤리적 기준을 지켜야 한다는 전제에 기반하지만, 예측 가능한 범위 내에서 안전 규제를 통해 AI 기술의 문제를 관리하고, 국민의 신뢰를 얻는 것이 중요하다.
    2024.07.07 09:37:27
    AI 자율과 규제의 균형을 찾아서
  • 봄이 지나고 여름이 깊어지면서, 자연의 울음소리도 가득하다. 한 낮, 뻐꾸기 울음소리는 문설주에 기댄 눈먼 처자의 모습을 상기시킨다. 이윽고 한 밤이 되면, 개구리 소리는 별만큼이나 밤하늘을 가득 채운다. 이처럼 인간은 감정적인 동물이고, 수많은 시간동안 다양한 경험과 학습을 통해 사고와 의식을 갖기 때문에 창작활동이 가능하다. 어쩌면 자연의 모습은 인간의 모습과 다르지 않다. 인간도 자연의 한 단면이고, 인간이 만들어내는 인공물도 인간의 것이라면 그것 또한 인간적이고 자연을 닮은 것이 아닐까 싶다. 인공지능도 인간의 모습과 다르지 않다. 인간이 만들어낸 수많은 정보와 지식을 바탕으로 학습한 것이기 때문이다. 인공지능이 지식이나 판단에서 인간보다 뛰어난 것은 빠른 연산능력 덕분이었다. 이세돌 9단을 이긴 알파고의 충격에도 창작활동은 인간만의 영역으로 안위했다. 글을 쓰거나 그림을 그리는 것은 인간만의 고유한 영역이라고 생각한 것이다. 인공지능이 사고를 하거나 창작활동을 할 것으로 예상하지 못했기 때문이다. 지금도 인공지능의 창작은 의식적인 것으로 보지 않는다. 확률적으로 가장 근접한 결과물이 생성되도록 하는 알고리즘에 불과하기 때문이다. 인간이 생각을 말하는 것은 어떤 맥락과 상황에 따라 달라진다. 상황에 따른 판단을 하고, 그 상황에 적절한 단어나 표현을 선택한다. 인공지능도 그렇다. 인공지능이 특정한 결과물을 생성할 때, 인간처럼 부여된 프롬프트에 따라 달라진다. 동일한 프롬프트라고 하더라도 전체적인 맥락에 따라 달라진다. 확률적으로, 또는 인간의 경험과 습성에 따라 언어의 선택이 달라진다. AI 모델이 갖는 특성 때문이라고 하지만, 인간이 표현하는 것과 크게 다르지 않다는 점에서 정말 인간을 모방한 것임을 알게 된다. 인간과 인공지능을 구분지는 생각과 사고는 무엇일까? 인간의 발명품인 인공신경망은 인간의 것과 유사한 구조를 갖는다. 뇌과학자들도 인간의 사고체계에 대한 그 원형을 찾지 못하고 있다. 인간은 타인의 것을 모방하면서 학습한다. 모방의 과정이 지난하더라도, 그러한 과정을 통해 인간은 하나의 인격체로서 성장해나가는 것이다. 그 과정에서 자신만의 특이점을 발견하기도 한다. 기계의 특이점은 인간의 능력을 넘어서는 것을 의미하지만, 인간의 특이점은 자신의 능력을 오롯이 발현하는 것이다. 인간에게 학습할 대상은 무한한다. 그렇지만, 기계에게는 그 또한 한정된 것이다. 이론적으로 빅뱅 이후의 모든 정보는 기계가 학습할 수 있는 데이터로 활용가능하다. 기계적 이라고 하지만, 빠른 속도로 학습할 수 있다는 의미이기도 하다. 그 과정에서 인간과는 다른 매커니즘이 활용된다. 인간의 학습은 저작물을 향유하는 행위이다. 향유란 저작물이 갖는 의미와 내용을 인간이 감각을 통해 즐기거나 느끼는 것을 말한다. 인공지능에서 논란이 되는 법률 중 하나인 저작권법은 인간의 향유를 전제로 한다. 타인의 저작물을 향유하기 위해서는 허락을 받거나, 저작재산권의 제한 사유나 공정이용(fair use)이 가능해야 한다. 기계가 학습하는 데이터를 포함한 저작물은 인간의 문화적 향유를 전제한다. 즉, 창작과정에서 의도했던 작가의 의도를 파악하고, 그 것을 해석하는 것도 하나의 문화적인 활동이다. 그렇지만, 이러한 문화적인 활동이 아닌 기계적으로 특징점(features)을 파악하는 것은 문화적 활동으로 보기 어렵다. 그렇기 때문에 인간과 기계가 다르게 취급된다. 기계의 활동이 인간의 활동을 넘어서기 어려운 이유이기도 하다. 다만, 기계적인 특성은 반복적이지만 시간적으로 인간과는 경쟁이 되지 않는다. 데이터에는 인간의 모든 것이 담겨있다고 해도 과언이 아니다. 기계는 데이터에서 인간이 의도한 문화적인 사상과 감정을 향유하지는 않는다. 수많은 데이터에 기반한 기계학습과 그에 따라 만들어내는 결과물을 보면, AI는 인간의 모습과 너무나도 닮아있다. AI가 인간의 모든 것이 담겨있는 데이터를 학습하면 무엇이 될까? 또 다른 인류가 출현하지 않을까 생각한다. 인공지능, 더 정확히는 대규모언어모델(LLM)은 인간의 언어를 이해하고 표현하는 최초의 객체이기 때문이다. 수많은 데이터를 비에 비유하고, 그 비가 AI라는 냇가를 가득 채울 때 어떤 상황이 연출될지는 알 수 없다. 다음처럼 단순하지 않을까? “냇가는 물로 가득 찼다. 가만히 들여다보면, 나의 모습이 보인다.” 어쩌면, 인공지능의 모습은 바로 우리의 모습일 것이다. 다만, 인간과의 공존을 위해 인공지능은 윤리적 기계가 돼야 한다. 이처럼 인공지능은 그다지 윤리적이지 않은 인간과는 달라야하는 숙명을 갖는다. 어쩌면 비상정지 버튼까지도 달아야 할지도 모른다. * 외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.06.16 10:00:00
    AI에서 인간의 모습을 보다
  • 누구나 자신이 있는 곳이 안전하다는 것을 느낄 수 있는 상태의 유지는 국가의 중요한 책무이다. 물리적인 안전의 중요성은 물론 디지털 환경에서의 안전 또한 무시할 수 없다. 인터넷 기반의 다양한 서비스는 일상생활을 유지하는 중요한 기반시설이라는 점에서 디지털 안전체계는 중요하다. 디지털 환경에서의 안전은 프라이버시(privacy)로서의 개인의 사생활 보호를 넘어선 물리적인 환경이나 사회적인 영역에서의 안전까지로 확대되고 있다. 종래에는 개인의 생활 및 신체에 대한 안전이 중요한 개념이었다고 할 수 있으나, 다양한 영역으로 확장 중이다. 클라우드 컴퓨팅 환경이 대표적이다. 그렇지만, 클라우드 환경은 다양한 시설이 유기적으로 연계돼야 한다. 어느 하나가 문제를 일으키면 서비스 자체가 ‘먹통’이 된다. 데이터센터 화재사건으로 디지털 서비스가 멈추기도 했다. 접근이 편리해진 반면 관리가 그만큼 어려워졌다는 반증이기도 하다. 우리의 안전체계는 물리적인 안전을 위한 ‘재난안전기본법’과 SW안전을 위한 ‘소프트웨어 진흥법’, 그리고 네트워크 상에서의 침해사고 대응을 위한 ‘정보통신망법’ 등 다양한 법률 체계를 갖추고 있다. 네트워크와 SW는 융합되면서 서로 뗄 수 없는 관계를 형성한다. 네트워크를 통해 서비스 되는 SW를 의미하는 사스(SaaS)로서 클라우드컴퓨팅은 어떤가? 우리 SW진흥법에서의 SW안전은 “외부로부터의 침해 행위가 없는 상태에서 소프트웨어의 내부적인 오작동 및 안전기능 미비 등으로 인하여 발생할 수 있는 사고로부터 사람의 생명이나 신체에 대한 위험에 충분한 대비가 되어 있는 상태”로 정의된다. SW 안전은 SW자체 또는 SW와 밀접하게 구현된 시스템이나 플랫폼 등 다양한 요소에서 사용되는 SW로 인해 발생할 수 있는 위험을 관리하기 위한 개념이자 목표이다. 다만, SW 품질은 SW 안전을 위한 기능적인 사항을 의미하기 때문에 품질이 기준을 담보하지 못할 경우에는 안전에까지 영향을 미칠 수 있다.. 그렇지만 SW 안전의 정의에서는 명확하게 외부로부터의 침입을 의미하는 네트워크를 통한 침해사고의 경우는 SW 안전의 범위에서 제외됨을 알 수 있다. 하지만 네트워크 안전과 SW 안전은 별개의 것으로 보기 어렵다. 기술적인 안전은 무엇보다 중요하다. AI가 일상으로 들어서고 있다. SW가 단순한 자동화의 의미를 가졌다면, AI는 의사결정이나 창작활동을 대신 해주는 수준이다. 그 만큼, 결과에 대한 의존도가 높아지기 때문에 AI의 내재적인 안전을 담보할 수 있는 방안이 마련돼야 한다. 그렇지 않을 경우, 인간의 통제를 벗어날 수 있기 때문이다. 지금의 수준이 그 정도까지는 아니지만 기술의 발전은 빠르게 이뤄지고 있다는 점을 고려해야 한다. AI 안전은 인간다운 삶을 위해서도 필요한 요소이다. AI를 통해 생성하는 다양한 생성물이 타인의 권리를 침해하거나 또는 AI가 잘못 판단하거나 알고리즘이 조작된 경우도 있다. 기술의 발전을 위해 규제는 지양될 필요가 있다. 기술을 통제하지 않는다면 그 뒷감당은 이용자인 국민의 몫으로 남기 때문이다. 기술개발은 선의에 따른 것이기도 하다. 그렇지만 기술은 이용하는 과정에서 의도성이 들어가고, 그에 따라 차별이나 편향이 반영되곤 한다. 물론, 무의식적으로 이뤄지는 편견은 더 큰 문제일 수 있다. 확인하기가 쉽지 않기 때문이다. 블랙박스로서 AI에 대한 규제를 주장하는 이유이다. AI에 대한 규제방법으로 설명의무를 부과하기도 한다. 설명가능한 AI의 개발도 마찬가지다. 거대언어모델(LLM)인 AI모델의 블랙박스를 열 수 있는 방법들이 제시되고 있다. AI의 안전은 AI자체의 안전도 중요하지만, AI를 활용하거나 사용되는 과정에서 사회적으로 미치는 영향에 대해서도 살펴봐야 한다. AI가 안전하지 못한 상황에서 작동되는 경우, 비상버튼이나 셧다운 시킬 수 있어야 한다. 인종차별이나 성차별과 같은 대화를 생성했던 챗봇인 테이사건이나 이루다사건에서 챗봇을 셧다운 시켰다. 문제의 확산을 막기 위한 의사결정이었다. 외부로부터 입력되는 데이터에 의해 내부 데이터나 시스템이 오염되지 않도록 개발했어야 했다. 두 사건에서처럼, AI가 문제는 아니다. 이를 이용하는 이용자의 악의적인 행동이 문제이다. AI가 문제를 일으키는 것이 아닌 사람이 문제를 일으키고 있는 상황인 것이다. AI는 일상이다. 그렇지만 AI가 가야할 길은 멀기만 하다. 그 과정에서 우리의 선택은 어떤 것이어야할지 여간 고민스러운 일이 아니다. 분명한 점은 기술이 인간을 이롭게 할 것이라는 점, 그렇지만 안전을 위해 기술에 대한 통제는 있어야한다는 점이다. 이를 위해 AI기술의 안전성, 서비스의 공정성, 서비스제공자의 신뢰성, 이용자의 윤리성, 정책의 일관성은 필요조건이다. 이로써 AI안전은 담보될 수 있기 때문이다. 마침내 EU AI법의 퍼즐이 맞추어졌고, 이제 시행만을 남겨둔 상태이다. 이는 AI에 대한 규제가 윤리 중심에서 법률 중심으로 이동하고 있음을 보여준다. AI 법률도 AI 기술의 안전한 이용에 방점을 둬야 한다. 다만, 기술에 대한 규제보다는 문제되는 비즈니스 모델(BM)에 대한 규제여야 한다. 무엇보다 규제는 명확하고 예측가능해야 한다.
    2024.06.01 07:00:00
    AI안전과 신뢰사회
1

top버튼
팝업창 닫기
글자크기 설정
팝업창 닫기
공유하기