“저희 암 병원장님이 미국의 인공지능(AI) 솔루션에 엑스레이 사진을 갖고 한글로 질문을 했더니 한글로 답을 주는 거예요. 주된 소견을 물으니 간질성 폐질환이 의심된다고 하고 암이 숨어 있는 곳이 있을지 묻자 일반적 수준의 대답을 해줍니다. 완전히 프로 같지는 않지만 레지던트(전공의) 수준의 대답 정도는 하는 것을 봤습니다.”
12일 열린 ‘서경 바이오메디컬포럼 2024’. 강미라 삼성서울병원 디지털혁신센터 부센터장이 강연 도중 미국 의료정보경영학회(HIMSS)에서 미국 업체 호퍼의 멀티모달 AI 솔루션을 체험한 경험을 들려줬다. 그는 이 장면을 보고 “2023년 1월에 생성형 AI가 뜬다는 뉴스를 접한 뒤 두어달 만에 관련 상품이 나온 것을 보고 충격 받았는데 이번에도 정말 큰 충격을 받았다”고 회상했다.
이처럼 AI는 의료 서비스 현장에서도 그동안에는 상상하지 못했던 방향으로 바꿔가고 있다. 이미 국내 병원에서도 네이버의 ‘클로바AI’와 협업해 진료 과정에 불필요한 입력 과정 등을 덜어주면서 의사가 환자와 좀 더 교감할 수 있는 시간을 벌어주는 시도가 이어진다. 한국보건산업진흥원은 최근 글로벌보건산업동향 보고서에서 의료진의 AI 사용은 번아웃 위기 완화에 긍정적 역할을 한다고 전했다. 필립스의 2024 미래건강지수 보고서에 따르면 14개국 2800명의 의료 기업 리더를 대상으로 조사한 결과 반복적인 업무의 자동화가 인력 부족 문제 해결에 중요하다는 응답이 92%에 달했다.
하지만 모든 현상에는 빛과 그림자가 공존하며 AI라고 절대 예외일 수 없다. 대표적인 문제가 AI가 주어진 데이터나 맥락에 근거하지 않은 잘못된 정보나 허위 정보를 생성하는 이른바 ‘AI 할루시네이션’ 현상이다. AI가 출력하는 결과물은 너무나도 그럴듯해서 사실이 아닌 것도 진실처럼 믿게 될 지경이다. 지금이야 의료 AI 솔루션이 활용하는 데이터가 제한적이지만 앞으로 그 범위가 점점 넓어지면서 오염된 데이터를 학습하게 되면 그 피해는 헤아릴 수도 없을 지경이다.
게다가 아직까지 AI가 진단한 결과에 대해 책임 소재도 명확하지 않고 오진이 발생했을 때 어떻게 대처해야 하는지도 정립되지 않은 상태다. AI 솔루션을 사용할 수 있는지 여부에 따라 의료 서비스 격차가 발생할 가능성도 있다. 기술의 발전이 인간의 윤리와 불평등 문제를 증폭시키는 전형적인 모습이다.
어떤 첨단 기술이든 어떻게 쓰느냐에 따라 인간을 위한 빛과 소금이 될 수도 있고 생존을 위협하는 흉기도 될 수 있다. AI 역시 ‘양날의 검’이다. 잘못 사용할 경우 생명과 직결되는 보건의료 부문에서는 더욱 문제가 될 것이다. 기술이 주는 편리함에 안주하기 전에 꾸준히 돌아볼 일이다.