사회 피플

스튜어트 러셀, "AI 발전에 갈수록 무서워져…통제 위한 규제 필요"

AI 석학도 "AI 발전, 원자폭탄 개발 과정과 비슷…위협 이미 현실화"

스튜어트 러셀 UC버클리 교수스튜어트 러셀 UC버클리 교수




'인공지능(AI)의 교과서'로 꼽히는 책을 집필한 과학자가 AI의 가파른 발전 속도에 개발자들도 두려움을 느끼고 있다고 고백했다.



스튜어트 러셀(사진) 버클리 캘리포니아대(UC버클리) 컴퓨터과학과 교수는 29일(현지시간) 가디언과의 인터뷰에서 연구자들도 'AI의 발전에 두려움을 느끼느냐'는 질문에 "갈수록 더 무서워지고 있다"며 이같이 밝혔다.

관련기사



러셀 교수는 Al 분야의 역저로 꼽히는 '인공지능: 현대적 접근방식'의 저자다. 이 책은 세계 100여 개 국가의 주요 대학에서 AI 관련 교재로 널리 쓰이고 있다.

그는 오늘날의 AI가 목표 수행의 '효율'을 극도로 추구하게 돼 있어 현실 세계의 다양한 변수를 충분히 고려하지 않는다는 점을 문제로 꼽았다. 가령 AI에 '암 치료법을 개발하라'고 명령한다면, AI는 인류 전체에 종양을 배양한 뒤 전 세계의 국내총생산(GDP)를 모조리 투입, 수백만 건의 임상시험을 진행해 가장 효율적인 의약품을 찾아내려 할 수 있다는 것이다. 그는 특히 "물리학 분야에서 일어난 일이 생각난다"면서 AI의 발전을 '원자 폭탄'의 개발 과정에 비유했다. 과학자들이 핵분열 에너지의 가능성을 이론으로 확인한 지 얼마 되지 않았는데도, 현실 세계에서 핵폭탄이 터진 것처럼 AI의 발전에 전체 인류의 안전에 위협이 될 수 있다는 주장이다.

그는 또 AI가 인간을 넘어서지 않아도 충분히 위험하다는 것이 문제라고 지적했다. 러셀 교수는 "(AI의 위협은)소셜미디어의 알고리즘을 보면, 사람들이 읽고 보는 것을 골라내 인간의 인지 영역에 엄청난 제어권을 발휘하고 있다"며 "알고리즘은 사용자를 조종하고 세뇌해서 사용자의 행동을 예측할 수 있게 만들고, 결국엔 클릭 수를 끌어 올려 수익을 내는 데 활용되고 있다"고 진단했다.

이에 따라 러셀 교수는 AI의 위협으로부터 인류를 보호하고, AI에 대한 인간의 통제를 지속하기 위해 AI 연구자들에게 적용되는 행동 강령이나 국제적 입법·조약 등을 각국 정부가 추진해야 한다고 촉구했다. 그는 "AI를 개발하는 사람들은 AI가 이미 현실에 큰 영향을 끼치고 있다는 사실을 정확히 깨닫지 못하고 있다"며 "이제는 연구자들도 어서 성장해 이런 현실을 깨우쳐야 한다"고 말했다.


김상용 기자
<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>




더보기
더보기





top버튼
팝업창 닫기
글자크기 설정
팝업창 닫기
공유하기