[로터리] 똑똑한 AI 규제

이은주 한국IBM 사장


바야흐로 인공지능(AI) 시대다. AI가 인간의 생산성을 향상시켜 2030년까지 16조 달러에 달하는 가치를 창출할 것이라는 전망도 나왔다. 경제성장을 촉진하고 국내총생산(GDP)을 증가시킬 뿐만 아니라 AI의 역량을 효과적으로 활용하는 개인과 조직에게 경쟁 우위를 제공할 것이다. 또 신약 개발, 제조 및 식품 산업 발전, 기후변화 대응 등 인류가 직면한 가장 시급한 과제를 해결하는 데도 AI가 도움이 될 수 있다.


하지만 다른 기술들과 마찬가지로 AI는 위험·오용 가능성을 내포하고 있다. AI를 책임감 있게 활용하지 않으면 민감하고 안전이 중요한 영역에서 큰 문제를 초래할 수 있다. 이는 우리가 극복해야 할 심각한 과제이며 현명한 규제가 필요한 이유이기도 하다. AI 산업의 발전을 목격하며 느낀 바에 의하면 AI에 대한 규제는 다음과 같은 세 가지 핵심 원칙에 기반해야 한다.


첫째, 규제는 AI 알고리즘이 아닌 AI로 인해 발생할 수 있는 위험과 관련해 수립돼야 한다. 모든 AI가 동일한 수준의 위험을 수반하는 것은 아니다. 무해한 것도 있지만 어떤 솔루션은 잘못된 정보를 전파하거나 편견이 개입된 결정을 내리게 하며 공정성을 훼손하는 등 부정적인 결과를 초래할 수 있다. 각각의 AI 적용 사례는 저마다 다르기에 규제는 AI가 배포되는 맥락을 고려해야 하며 고위험군 AI 사용에 대해서는 더욱 면밀하게 규제해야 할 것이다. 실제 반도체 분야에서는 새로운 칩의 발명을 라이선스 방식으로 허가한 적이 없다. 대신 해당 제품이 언제, 어디서, 어떻게 사용되는지 통제했고 이는 혁신을 촉진하고 책임감을 부여하는 데 도움이 됐다.


둘째, AI를 만들고 배포하는 사람들에게 책임의식을 부여해야 한다. 정부도 중요한 역할을 하지만 그렇다고 다른 관계자들이 면책되면 안 될 것이다. AI 개발자와 배포자와 같이 관련자들의 다양한 역할을 고려하고 AI 도입·운영 상황에 따라 책임을 지도록 해야 할 것이다. 채용 의사 결정에 AI를 사용해 고용 차별 문제가 발생했을 때 기업에 면죄부가 주어지는 것이 아니듯 말이다. 비슷한 이유로 소프트웨어 개발자가 사기 행위를 조장하는 금융 알고리즘을 만들 경우 이로 인해 발생할 수 있는 잠재적 피해에 대해 법적 책임을 져야 마땅하다.


마지막으로 AI에 대한 규제를 허가제로 시행하기보다 개방형 혁신을 지원해야 할 것이다. 허가제는 규제 틀을 만들 위험이 높다. 이는 의도치 않게 비용을 증가시키고 혁신을 저해하며 소규모 기업과 오픈소스 개발자에게 불이익을 주면서 소수 기업의 시장 지배력을 공고히 할 수 있다. AI는 소수가 아닌 다수에 의해, 다수를 위해 구축돼야 한다. 활발한 개방형 생태계는 경쟁, 혁신, 기술 개발, 보안 등에 도움이 되고 다양한 관점에서 AI 모델이 형성될 수 있도록 보장하는 안전장치다.


AI를 비즈니스에 적극적으로 활용하려면 위험을 관리할 수 있는 규제는 필수불가결하다. 전 세계적으로 AI와 관련된 규제 논의가 활발하게 진행되고 있다. 우리나라도 똑똑한 규제를 통해서 AI가 가진 잠재력을 안전하게 극대화할 수 있기를 기대한다.


<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>