서경IN 사외칼럼

알고리즘과 소비자 안전 [김윤명 박사의 AI 웨이브]

■김윤명 디지털정책연구소 소장(법학박사)

이미지투데이이미지투데이




알고리즘이 고도화하면서 여러 가지 문제점이 복합적으로 작용하기 때문에 소비자 안전을 강조하게 된다. 알고리즘의 조작을 통한 차별이나 필터버블에 의한 편향된 결과의 지속적인 제공은 다양성이 배제된 의식의 편향으로 이어질 수 있다.



인공지능(AI) 검색은 인터넷검색과 달리, 일부분의 데이터에 기반해 생성한 결과를 제공하기 때문에 인터넷이나 인터넷검색의 다양성이 훼손될 가능성도 크다. 데이터의 편향에 의한 결과의 신뢰성을 담보하기 어려운 경우 등 AI 모델이 갖는 내재적인 한계가 원인으로 지목된다. 또 알고리즘을 학습시키거나 서비스에 적용하는 과정에서 개발자 등의 의식적이거나 무의식적인 개입이 이루어질 가능성도 배제하기 어렵다.

일례로 네이버, 쿠팡, 카카오모빌리티 등 플랫폼사업자들의 알고리즘 조작은 대표적인 소비자 안전을 해치는 사례이다. 안전은 물리적인 위해로부터의 안전만이 아니라 합리적인 상황을 벗어나지 않는 의사결정을 내릴 수 있는 평온함의 유지나 개인의 프라이버시를 보호받을 수 있는 상황을 포함한다. 또 소비자의 후생이나 권리가 침해당하지 않는 상태로서 소비자 안전도 포함된다.

알고리즘에 의해 이루어지는 불공정행위는 직간접적으로 소비자 권리를 침해하는 결과를 가져오기 때문이다. AI 안전권에 대한 논의가 필요한 이유이기도 하다.

우리는 서비스나 기술이 시장에 출시될 때 안전성을 테스트했을 것이라는 신뢰에 따라 해당 서비스나 제품을 이용하거나 소비한다. 지금은 AI의 안전성에 대한 신뢰도가 높은 것으로 보이지는 않는다. 국회에 발의된 15개 AI 관련 법안이 기본적으로 담고 있는 가치는 ‘신뢰성있는 AI’에 관한 규정이다. 그만큼 AI의 신뢰성에 대한 문제인식이 있다는 방증이기도 하다.

그럼에도 불구하고 신뢰성을 저해하는 행위에 대한 규정은 찾기 어렵다. AI 안전은 규제가 아니다. 헌법이 보장하는 국민의 행복추구권의 한 유형인 기본적인 인권이기 때문이다. 신뢰는 서비스제공자의 책임있는 태도에서 출발한다. 몇몇 사례이지만 플랫폼사업자들의 의도적인 알고리즘 왜곡이나 조작은 신뢰를 얻기 어렵다.

AI 기술은 소비자의 편의를 크게 향상시키지만 동시에 신뢰와 안전에 대한 문제를 제기한다. 특히 AI가 복잡한 알고리즘으로 작동하는 경우 소비자는 그 작동 방식에 대해 충분한 정보를 알 수 없다는 ‘블랙박스’ 문제에 직면한다.



이는 서비스의 신뢰성에 영향을 미치며 신뢰 상실은 소비자 피해로 이어질 수 있기 때문에 소비자 보호를 위해 AI의 안전성과 투명성을 강화하는 정책이 필요하다. 물론 AI를 이용하는 과정에서 나타나는 여러 가지 법률적 윤리적 이슈의 최종적인 책임은 해당 서비스를 이용하는 소비자에게 미치는 영향의 정도에 따라 달리할 수 있을 것이다.

관련기사



알고리즘에 의한 권력의 균형추가 플랫폼사업자 중심으로 재편되는 상황에서 소비자 주권에 대한 논의는 필수적이다. 그동안 AI 관련된 논의에 있어서도 ‘소비자 주권’과는 멀었다. AI관련 정책의 수립과정에서 소비자가 직접 개입하거나 의견을 제시할 수 있는 기회가 부족했다. 실제 알고리즘을 소비하는 소비자 권리는 누가 보호할 것인지 묻지 않을 수 없다.

개별적 소비자의 힘은 크지 않다. 알고리즘으로 인한 문제는 소비자 스스로 해결하기 어려운 문제이다. 적극적으로 소비자 단체가 나서야 할 이유이다. 알고리즘 공정성을 위해 소비자 단체에 의한 모니터링을 강화하거나 ‘소비자 권리장전’을 제정하는 것도 필요하다. 우리 세대가 AI 안전에 대한 기반을 닦지 못할 경우 다음 세대의 안전을 담보하기는 더욱 쉽지 않을 것이다.

서비스제공자는 소비자 주권에 대한 적극적인 이해와 그에 따른 서비스정책을 마련하는 것이 바람직하다. 다양한 방법을 통해 AI 서비스 사용 경험에 대한 불만 접수 시스템을 통해 소비자 의견을 수렴하고 알고리즘 개선에 반영하는 절차를 마련할 수 있을 것이다. 제대로 된 서비스 정책을 수립하지 못할 경우 더 큰 규제에 직면할 수 있다는 점은 ‘확률형 아이템 표시제도’ 등 여러 사례를 통해 확인된 것이기도 하다.

소비자 안전권은 헌법상 행복추구권에 근거한 파생적 기본권이다. 안전에 대해서는 국가의 책무이며 그 원인이나 결과가 어떤 것이든 국가는 국민인 소비자의 안전을 위한 일련의 책무임을 잊지 않아야 한다.

이를 위해 정부는 알고리즘으로 인해 발생하는 여러 가지 문제점을 조망하고, 그러한 문제가 소비자의 후생을 해치는 경우에 어떻게 소비자 권리를 구제할 것인지 정책방향을 제시할 필요가 있다. 입법적으로는 AI 기본법 체계내에서 다룰 것인지, 기존의 소비자기본법이나 정보통신관련 법제 등의 정비를 통하여 소비자 권리를 구체화할 것인지 여부이다. 사업자들에게도 명확한 기준을 제시함으로써 예측가능성을 높일 수 있을 것이다. 알고리즘 조작에 대한 일련의 사건에 대해 공정거래위원회가 큰 역할을 해왔다는 점에서 공정거래위원회가 부합하지만 EU AI 기구(AI office) 처럼 별도의 독립적인 AI 전문규제기관을 두는 방안도 고려될 필요가 있다.

권력화되는 알고리즘에 대응하고 안전을 지키기 위해서는 지속가능한 안전 정책이 요구된다. 최근 ‘AI안전연구소’가 출범했다. 연구소가 정책연구소인 것은 안전관련 정책이나 법제도 측면에서 우리사회의 안전망을 구축할 수 있는 씽크탱크로서 역할을 기대하기 때문일 것이다. 알고리즘이 우리 사회의 안전을 위협하는 요인은 복합적이고. 다양하다. 다양한 영역과의 협력적 거버넌스 체계를 갖추는 것이 필요하다. 하나의 아이디어이지만 AI 안전의 범위를 물리적이고 기계적인 안전이 아닌, 사회적 안전까지도 확장하여 최종적인 소비자인 국민의 안전을 위한 거버넌스 체계로 확대해나가는 것이 바람직하다.

다만 알고리즘의 문제는 알고리즘으로 풀어야한다는 낭만적인 생각은 버려야 한다. 인간이 주체적으로 개입하여 해결해야 할 과제임을 명심해야 한다.



<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>




더보기
더보기





top버튼
팝업창 닫기
글자크기 설정
팝업창 닫기
공유하기