실리콘 칩도 느리다.

이케 추앙이 들고 있는 연필두께 만한 시험관에는 헤아릴 수 없을 만큼 많은 분자들로 이루어진 밝은 주황색 용액이 담겨 있는데, 각 분자의 중심부는 불소 원자 5개와 탄소 원자 2개로 구성되어 있다. 그는 초고압 쿠커 모양으로 개조된 핵자기공명기 내부에 시험관을 살짝 밀어 넣는다. 기계속에 들어간 실험관은 증폭기에 부착된 무선주파수 코일과 신호발생기에 둘러싸이는데 추앙은 “신호발생기는 휴대폰에 장착된 것과 같고 크기만 훨씬 클 뿐”이라고 한다.

추앙은 계속하라는 의미의 ‘GA(Go Ahead)’를 입력한다. 벨소리가 나면서 무선파가 시험관을 씻어 내리자 탄소와 불소 원자의 핵이 회전하기 시작한다. 이들은 축 둘레로 요동하면서 연산을 수행하는데 1초도 안돼 15의 소인수를 계산해낸다. 추앙은 이 실험을 35번 더 반복하면서 오차율 조정을 위해 결과치의 평균을 구한다.

15의 소인수분해는 초등학생이나 계산기에 걸맞는 문제이지만 이 경우 중요한 것은 계산의 규모나 속도가 아니라 계산이 가능하다는 사실 그 자체다. 추앙의 7 ‘큐빗(qubit)’짜리 양자컴퓨터는 현존하는 최고 성능의 컴퓨터로 몇 년 전까지만 해도 과학자들이 불가능하다고 생각했던 계획이 가능하다는 구체적 증거를 제시해 주고 있다. 즉, 양자 수준의 원자 특성을 이용해 잘 작동하는 컴퓨터의 두뇌로 사용할 만하다는 것이다. 추앙과 다른 과학자들에 따르면 양자 기계장치들 덕분에 언젠가는 한 번에 수십억 개의 연산을 하는 대량 병렬처리 작업이 가능해질 것이라고 한다. 하지만 실리콘 칩으로는 이와 같은 일이 불가능하다.

“기존 관념을 뛰어 넘을 것”이라고 밝힌 추앙은 현재 MIT 비츠 원자 연구소의 부교수로 있지만 이 초기 단계의 양자 컴퓨터 실험을 한 곳은 캘리포니아 산호세의 IBM 앨머던 연구소였다. 그는 “우리는 연산 수행 단위를 극소화 해 어느 누구도 생각하지 못했던 방식으로 작업을 하고 있다”고 말한다.

이 연구에 매달린 사람은 추앙 뿐만이 아니다. 전세계에서 수십 개의 팀들이 수억 달러의 연구비를 쏟아 부으며 극미세 차원의 연산이 가능하다는 것을 입증하려 하고 있다. 이들은 탄소 나노튜브와 DNA 가닥, 회전 핵을 이용해 실험을 하고 있다. 이들이 연구중인 것은 ‘재래식’ 칩 기반 컴퓨터의 근본적인 문제들을 일거에 뛰어 넘는 컴퓨팅 장치들이다. 기존의 칩 기반 컴퓨터들은 크기도 문제지만 한 작업이 끝나야만 다음 작업을 할 수밖에 없는 칩 자체의 선형처리 방식 때문에 한계가 있다). 나노 수준의 컴퓨팅 용도는 무엇이 될까?

가까운 미래에 PDA나 휴대폰에 대용량의 병렬처리 기술을 활용할 일은 없겠지만 데이터 암호화 등의 분야에서는 이미 기존 컴퓨팅 방식의 한계가 감지되고 있다. 암호화는 국가 안보상 필수적이기도 하지만 인터넷 상거래와 자료 교환에 있어서도 핵심적인 토대가 된다. 미래의 컴퓨터가 대규모의 병렬처리를 할 수 있게 되면 해독이 불가능해 보이는 암호를 풀거나 보호하는 데 도움이 될 것이다.

생화학 분야의 경우를 예로 들면 칩을 사용하지 않은 컴퓨터를 이용해 대량의 데이터를 동시에 처리하면서 중요한 유전자 패턴을 찾아냄으로써 신약개발이 가능할 수도 있다. 나노컴퓨터는 방대한 데이터베이스를 관리하면서 장기간에 걸친 날씨예측과 같은 복잡한 문제도 해결할 수 있고, 이론상이긴 하지만 사람의 신체를 세포 단위 수준에서 관리하거나 치유할 수도 있게 될 것이다. 물론 나노 컴퓨팅 연구는 아직 초보적인 단계에 불과하다.

크기의 장벽
컴퓨터는 크기가 작아지면서 속도는 점점 빨라져 왔기 때문에 혹자는 ‘컴퓨터 크기가 왜 계속 작아질 수 없는가’ 반문할 수도 있다. 최초의 일반용 컴퓨터였던 ENIAC(Electronic Numerical Integrator and Computer)은 펜실베니아 대학의 강의실 하나만한 크기였다(“덩치는 크고 성능은 빈약”기사참조). 무게는 30톤이나 나가는 데다 사용된 진공관 수만도 17,000개에 달했다. 과학자들이 이 컴퓨터의 전원을 넣으면 필라델피아 일부 지역이 정전이 됐을 정도였다. 4비트 컴퓨터였던 ENIAC은 지금 기준으로 보면 보잘 것 없는 초당 20,000싸이클로 작동했는데, 이 정도의 연산능력은 조잡한 음질로 노래를 들려주는 현재의 전자식 카드에서나 볼 수 있는 것이었다.

ENIAC과 이후 개발된 이 계열의 컴퓨터들은 정확한 정보변경을 위해 켜진 상태와 꺼진 상태의 두 가지 스위치로 구성되었다. 정보의 기본 단위인 1비트는 회로 내에서 전압으로 표현이 되었다. 즉, 해당 비트에 높은 전압이 걸린 경우는 1, 낮은 전압일 경우에는 0의 값이었다. 이러한 비트들은 수많은 스위치로 구성된 단순한 논리소자들 사이로 흘러 다니면서 컴퓨터에 지시된 업무를 수행했다. 그러던 중 1947년 트랜지스터가 등장하면서 ENIAC의 진공관 스위치는 쓸모가 없어졌다.

트랜지스터는 안정성 때문에 현재도 집적회로나 마이크로프로세서의 기본 부품으로 사용되고 있다. 세대가 바뀔 때마다 스위치는 점점 더 작아져 엔지니어들은 같은 공간에 더 많은 스위치를 넣을 수 있게 되었지만 본질적인 기능 자체에는 변화가 없었다. 회로의 크기가 줄어듦에 따라 칩 내부를 돌아다니는 전자들의 속도가 빨라져 분배하는 2진 코드의 수가 증가해 더 많은 업무 처리가 가능해졌다. 요즈음의 펜티엄4 프로세서는 크기는 동전만 하지만 전자들을 5,500만 개의 트랜지스터에 초당 20억 번에 달하는 2기가 헤르쯔의 속도로 전송할 수 있다.



앞으로 10년 후면 보통 실리콘 칩 한 개에 10억 개 이상의 트랜지스터가 들어 있어 초당 250억 싸이클이 넘는 속도로 작동하게 될 것이다. 생소하게 들리겠지만 이미 IBM이 최근 발표한 실리콘 게르마늄제 칩 같은 고성능 칩의 경우 처리속도가 100기가 헤르쯔를 넘어서고 있다.

하지만 이들 회로를 소형화하는 데는 한계가 있다. 보통 칩은 자외선 광을 이용해 내광성 표면에 회로 패턴을 새겨 넣어 만든다. 파장이 더 짧은 빛을 사용할수록 칩제조업체는 보다 좁은 선폭의 회로를 제작할 수 있다. 하지만 결국은 회로를 새겨 넣는 데 필요한 파장이 너무 짧아져서 회로 패턴을 새겨 넣기도 전에 렌즈와 공기 분자들이 이 빛을 흡수해 버리게 된다. 앞으로 10~15년쯤 후 이러한 시점에 이르게 되면 실리콘 회로 크기의 축소화가 멈추게 된다. 게다가 칩 제조 과정을 개선하려고 점점 더 짧은 파장의 빛을 이용할수록 비용은 높아진다.

결국 과학계에서는 다른 종류의 컴퓨터시스템을 찾아야만 하게 될 것이다. “결국 컴퓨터 작업들에 의해 포위된 셈”이라고 MIT의 비츠원자 연구소 소장인 네일 거쉔펠드는 말한다. 그는 “돌파구가 없는 것은 아니다”며 “컴퓨터가 클로로포름 관처럼 생길 수도 있으며 우리는 자연계의 문제해결 방식을 배울 필요가 있다”며 “과학자들은 수십년동안 실리콘의 한계를 극복할 물질을 찾고 있다”고 대답한다.

실리콘 대체 물질들
문제를 해결할 한 가지 방법은 기존 컴퓨터 회로의 안정성은 유지하면서 실리콘 칩 크기를 줄이는 것이다. 탄소나 기타 다른 물질들로 회로를 제작하는 데 사용되는 분자 크기의 전자소자들은 기존의 컴퓨팅 구조는 그대로 따르지만 속도는 상당히 높일 수 있다. 이론대로라면 2010년 이전에 실리콘 분자 회로를 이용한 기계 설계가 가능할 것이다. 지난해 8월 뉴욕 요크타운 하이츠 소재 IBM 왓슨 연구소의 연구원들은 단일 분자로 된 논리 게이트를 최초로 선보였다.

닭장용 철망처럼 원자들이 배열된 탄소 나노튜브를 이용해 과학자들은 폭이 원자 10개 넓이로 실리콘 회로 크기의 500분의 1에 불과한 회로를 만들어 냈다. 지난해 10월에는 벨연구소 과학자인 헨드릭 숀과 제난 바오, 홍 멩이 나노 튜브보다도 더 작은 분자 트랜지스터를 고안해냈는데, 이는 모래알 한 개의 100만분의 1만한 크기였다. 숀과 동료 과학자들은 탄소와 수소, 황 화합물인 티올(thiol) 분자를 두 장의 금 전극 사이에 끼워 넣은 다음 티올을 이용해 두 전극 사이로 흐르는 전류를 조절했다.

이 나노회로의 경우 중요한 건 크기뿐만이 아니었다. 이 장치를 만든 사람들조차 놀란 것은 티올 분자가 강력한 신호증폭기 역할도 했기 때문인데, 이는 전기신호(이득)를 증폭시키는 트랜지스터에서 필수적인 부품이다. 숀은 “낮은 전압으로 가동해도 그렇게 높은 이득이 얻어지는 데 놀랐다”고 말했다.

만약 분자들이 트랜지스터와 증폭기 역할을 모두 한다면 논리 게이트와 이를 확장한 단일 칩의 크기를 줄일 수 있을 뿐만 아니라 가격도 낮출 수 있다고 휴렛 팩커드 양자 과학 연구소 소장인 스탠 윌리엄스는 지적한다. 만일 이러한 가능성이 입증되면 실리콘을 능가하는 성능을 갖출 수 있다.

윌리엄스와 동료인 휴렛 팩커드 연구원 필 퀘크스는 곧 실리콘 기술과 신소자 기술을 접목시킬 예정이다. 지난해 7월 두 사람은 분자 크기 회로로 기존 반도체와 데이터를 주고받을 수 있도록 해 주는 장치에 대한 특허를 획득했다. 이들과 UCLA연구원들로 이루어진 다른 팀에서는 2005년까지 16킬로비트짜리 메모리 회로 생산이 가능할 것으로 예측하고 있다. 윌리엄스는 신소자로만 된 회로가 핸드헬드 컴퓨터와 같은 장치에서 기존의 칩들을 대체하기 시작할 것이라고 한다. 아마도 가장 큰 영향을 받는 것은 생의학 이식물 분야가 될 것이다.

초소형 컴퓨터를 인체에 삽입해 인슐린 수치를 측정하거나 심장마비 발생을 미리 경고해 줄 수도 있을 것이다. 세포의 구조와 DNA 수준에서의 세포간 정보 교환에 관한 많은 연구가 진행중이므로 언젠가는 초소형 기계들이 세포들의 언어로 세포와 대화하는 방법도 알아내게 될 것이다.

컴퓨터로 쓰일 2중 나선
실리콘과 신소자의 수준을 넘어서게 되면 컴퓨팅의 개념 자체가 달라져 훨씬 더 생소하고 이해하기 힘들게 된다. 이런 방법들 중에는 DNA를 이용한 것이 있다. 나름대로 타당성이 있는 방법이다. DNA는 생명 유지 과정들을 처리하는 자연계의 고효율적인 데이터 저장 전달 체계인데, 유사하게 생긴 4염기 이중 나선 구조가 엄청난 양의 정보를 분자 수준에서 암호화한다. DNA는 시종일관 예측 가능한 방식으로 결합하고, 차 숟가락에 10조 개의 염기쌍을 담을 수 있다.

이들 각각의 염기쌍들을 일종의 프로세서로 변환시킴으로써 과학자들은 수조 개의 연산을 한 번에 처리할 수 있는 나노 컴퓨터의 제작이 가능하리라 예측하고 있다. 1994년 남가주대학 교수인 레오나르도 애들먼은 여행중인 세일즈맨의 문제로 잘 알려진 해밀턴 경로(두 교점이 연결되면 모든 교점을 반드시 한번씩 방문하면서 나가야 하는 경로)문제를 DNA를 사용해 해결함으로써 기반을 닦아 놓았다.



이 문제는 여러 도시들을 모두 돌 수 있는 최단거리를 구하되 어떤 도시도 한 번 이상 방문하면 안 되는 것이다. 도시 수가 몇 개 밖에 안 되면 연필과 종이만 있어도 풀 수 있는 정도의 문제이다. 하지만 도시의 수가 늘어나면 기존 컴퓨터가 연속적인 방식으로 시도해 볼 경로 수가 기하급수적으로 늘어난다. 빨리 답을 얻으려면 이 문제를 여러 대의 병렬처리 컴퓨터들에 분산시켜 처리해야 한다. 아니면 애들먼처럼 찻숟가락 몇 개분의 DNA를 이용해 가능한 모든 해결책을 동시에 찾게 할 수도 있을 것이다. 애들먼은 대규모의 병렬식 화학 반응을 일으켜 DNA코드 한 가닥마다 가능한 답들이 한 개씩 나오도록 하는 방법을 보여 준 다음 1주일간 잘못된 가닥들을 올바른 가닥들로부터 분리해냈다. DNA 컴퓨팅은 생화학 연구의 논리적 소산물로, 이를 통해 과학자들은 암호를 해독하거나 조작하며 동식물의 유전 물질들을 합성해 왔다.

지난 3월 애들먼과 남가주대학의 동료들은 DNA 컴퓨팅이 상당한 진전을 이루었다고 발표하면서 현재까지 비전자식 장치로 시도했던 것 중 가장 큰 문제를 해결했다. 이 실험에서 애들먼은 몇 가지 조건을 내걸고 그 조건이 충족되어야만 파티에 오겠다는 사람들 중 최종적으로 초대받게 될 사람들의 목록을 작성하려 했다. 이들은 각자 자기가 싫어하는 사람은 초대하면 안 되고, 자기가 좋아하는 사람은 초대해야만 파티에 오겠다는 식의 단서를 단다. 이렇게 까다로운 참석자 20명의 요구를 수용하려면 100만 가지가 넘는 초대 손님 조합을 검토해 보아야 한다.

핵산으로 서로 좋아하거나 싫어하는 사람들을 표현하게 하며 4일간 화학반응과 코드분류를 한 끝에 애들먼의 DNA 컴퓨터는 최종 파티손님 목록을 만들어냈다. 물론 이 실험 이전에도 남가주대학 연구원들은 파티초대 문제를 DNA 컴퓨터로 푼 적이 있지만 이전 실험들에서는 고려해야할 손님의 수가 9명뿐이었다. 20명의 선호 조건들을 모두 고려하려면 수조 개에 달하는 DNA 분자 조각들로 연산을 해야 했기 때문에 훨씬 더 어려운 실험이었다. 용액 속에 떠다니는 염기 가닥들보다는 안정적이고 튼튼한 DNA 기반 구조물에 입각한 DNA 컴퓨팅이 훨씬 더 강력할 수 있다고 제안한 연구원들도 있었다. 비교적 큰 성과를 보이고 있는 듀크 대학의 한 연구에서는 컴퓨터 과학자 존 레이프와 탐 라빈이 DNA 타일(tile)이라는 물질을 연구중이다.

이 타일은 핵산 가닥들을 서로 얽히도록 짜 만든 구조물로 타일들간의 상호작용으로 인해 단순논리회로가 된다. 라빈과 레이프는 자신들의 컨셉을 가장 단순한 2진법 수준에서 테스트중이다. 결합된 타일들이 안정적으로 기본논리소자처럼 작동할까? 이들의 초기 실험은 타일 기반의 DNA 컴퓨터가 실제로 작동한다는 것을 입증해 주고 있다. 이러한 논리게이트들을 충분한 양만큼 연결시키면 눈물방울보다 작은 수퍼컴퓨터가 될 수도 있을 것이다. 그러나 제대로 작동하는 소형 DNA 컴퓨터를 설계하려면 넘어야할 높은 장벽들이 있다.

일례로 DNA 구조가 복잡해질수록 연산을 잘못하는 실수가 발생할 확률이 그만큼 더 높아진다고 레이프는 말한다. 자연계에서는 이러한 오류들이 돌연변이가 되고, 지속적인 DNA 치유를 통해 오류가 수정되어 생체 세포로 주입된다. 하지만 DNA컴퓨팅에서는 이러한 자동적 오류수정 작용이 없다. 더구나 ‘답’을 포함하고 있는 DNA 부분들을 추출해 분석해야만 한다. 결국 과학자들은 결과를 효과적으로 읽어낼 방법을 찾아내야 한다. 그렇지 않으면 DNA 컴퓨팅이 아무리 빨라도 결과 확인에 시간이 오래 걸리게 된다. 레이프는 “이론상으로는 DNA 컴퓨터를 이용해 일반 컴퓨터가 하는 일은 뭐든지 할 수가 있지만 실제로는 마이크로소프트 윈도를 돌리려고 DNA 컴퓨터를 사용하지는 않을 것이며. 따라서 DNA컴퓨터는 분자 수준에서 다른 방식으로 할 수 없는 일을 처리하는 데 사용하게 될 것으로 본다”고 예상한다.

DNA 컴퓨터의 용도에 관한 제안들 중에는 환경에 존재하는 병원균을 식별하거나 인체내 세포 수준에서의 생화학적 변화를 감지할 수 있는 바이오센서로 만들자는 안과 급팽창중인 유전자 연구 분야의 대규모 자료검색용으로 DNA 컴퓨터를 활용하자는 안도 있다.



양자 도약
양자컴퓨팅은 나노규모 세계의 분자 회로와 DNA의 병렬처리 속도를 결합한 다음 나름대로의 기이함이 보태진다. 양자컴퓨터에서는 원자의 핵들이 2진 코드의 0과 1에 해당하는 큐빗 역할을 한다. 핵의 회전 방향이 ‘위쪽’이면 0에 해당하고, ‘아래쪽’이면 1에 해당한다. 하지만 양자컴퓨팅에는 제 3의 또다른 값이 존재한다. 핵이 두 가지 위치를 동시에 점유하는 특별한 양자상태가 될 수 있는 것이다. 중첩이라고 하는 이 현상은 양자 컴퓨터의 엄청난 잠재력을 함축하고 있다.

왜냐하면 만약 핵이 0,1, 또는 두 가지 값을 동시에 가질 수 있게 되면 1큐빗으로 2비트의 일을 할 수 있고, 2큐빗은 4비트, 4큐빗은 16비트의 일을 하는 식으로 계속 증가한다. 계속해서 이 지수 규모를 더해 나가다 보면 비교적 작은 40큐빗 정도의 양자컴퓨터가 슈퍼컴퓨터의 용량에 달하게 된다. 사실 기존의 컴퓨터들로는 몇 개 안 되는 원자들의 양자 특성을 정확히 모델링하는 것도 어려웠다. 핵의 포착이 워낙 어려웠기 때문이었다. 이에 비해 양자컴퓨터로는 양자의 특성 연구가 훨씬 더 수월해질 가능성이 있다.

하지만 문제가 있다. 양자역학상의 특이한 법칙에 의해 일단 한 핵의 상태를 관찰하면 그 핵은 중첩 상태에서 벗어나 0이나 1로 고정되어 버리는 것이다. IBM에서 추앙이 사용했던 압력밥솥 모양의 기계는 한 번의 연산을 할 수 있을 정도의 시간동안 원자들의 중첩 상태를 유지시키기 위해 고안된 것이었다. 추앙은 “비결은 믿기 어려울 정도로 긴 시간(이 경우 1.5초) 동안 양자 상태로 있을 만한 분자를 만들어내는 것”이라며 “그 정도 시간이면 양자에겐 억겁의 시간이며 평생동안 한 사물이 두 곳의 장소에 동시에 있는 것을 보게 되는 경우는 대부분 없다”고 말한다. 추앙은 4대의 양자컴퓨터 설계에 참여했었는데, 매번 컴퓨터는 이전 것보다 더 정교해졌다.

지난해 가을 그의 7큐빗짜리 컴퓨터가 최초로 소수들을 인수분해 하는데 중요한 알고리즘을 수행했다. 소인수분해는 암호화에 반드시 필요하다. 캘리포니아 데이비스 대학 컴퓨터 과학부 부교수인 프레드 정은 현존하는 초고속 컴퓨터라도 300자리수의 암호화키를 순차적으로 가능성 있는 숫자를 찾아가며 소인수분해 하려면 수십억 년이 걸릴 것으로 예측하고 있다. 양자 컴퓨터라면 이 암호를 30분 정도면 해독할 수 있다.

하지만 그렇게 하려면 수십만 큐빗짜리 양자컴퓨터가 필요한데 아무리 낙관적으로 보더라도 이런 시스템이 개발되려면 최소한 15년은 더 있어야 할 것이라고 연구원들은 입을 모으고 있다. 사실 추앙은 현재 계획상으로는 10내지 20큐빗 이상의 컴퓨터는 생각하지 않고 있다. 왜냐하면 원자핵의 회전 방향을 측정해 큐빗 값이 0이나 1, 혹은 양쪽 모두인지 결정하는 자기 신호가 큐빗 수의 증가에 따라 점차 약해지기 때문이다. 그래서 과학자들은 다른 기술들을 모색하고 있는데, 그중에는 큐빗을 고체 상태의 ‘새장’에 가둔 다음 이를 레이저로 읽는 방법도 있다.

추앙은 “이 분야의 어느 누구도 현 진행 상황을 제대로 이해하지 못하고 있으며 양자물리학은 직관으로는 접근하기가 힘들다”고 잘라 말한다. 나노 컴퓨터는 암호화나 데이터 베이스 검색과 같이 고도로 전문화된 분야에 주로 국한되어 응용될 것이라는 게 대부분 과학자들의 생각이다. 그렇게 생각할 만한 전례가 있기 때문이다. 방만한 크기의 ENIAC은 원래 포탄의 탄도 계산용으로 제작되었던 것이어서 그 당시 IBM의 회장이었던 토마스 왓슨은 전세계 컴퓨터 시장의 수요는 5대에 불과할 것이라는 유명한 말을 남기기도 했다. IBM과 후발 사업자들은 그 이후 컴퓨터의 용도를 다변화했다. 나노컴퓨터도 비슷한 운명이 될 것 같다. 지난 50년에 걸친 컴퓨터 혁명에서 시사하는 바가 있다면 기계가 작아질수록 성능은 커지며 용도도 다변화한다는 점이다.

<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>