특집
양자컴퓨터의 오류 문제를 어떻게 해결할까: 양자오류정정
양자오류정정과 결함허용 양자컴퓨팅
작성자 : 이승우 ㅣ 등록일 : 2024-10-31 ㅣ 조회수 : 99 ㅣ DOI : 10.3938/PhiT.33.026
이승우 박사는 Oxford 대학에서 양자정보이론 물리학으로 박사 학위를 취득했고, 다트머스대 연구원, 서울대 BK 조교수, 고등과학원 QUC 연구교수를 거쳐 한국과학기술연구원에서 연구를 하고 있다. 2022년부터 한국과학기술연구원, 시카고대, 서울대, 캐나다 양자컴퓨팅 기업 자나두(Xanadu Quantum Tech.) 등이 참여하는 양자오류정정 국제협력 연구센터를 이끌고 있다. (swleego@gmail.com)
Quantum Error Correction and Fault-tolerant Quantum Computing
Seung-Woo LEE
Quantum error correction (QEC), providing systematic ways for protecting qubits from errors, is essential to achieve fault tolerance in building scalable quantum computing systems. QEC has been becoming the major keyword of quantum technology and research over the past few years with several experimental breakthroughs. In this article, I introduce the basic theory of QEC with all relevant concepts, recent experimental achievements, and technological challenges.
들어가며
양자는 우리의 직관과 다른 현상을 보여준다. 양자 특성이 인간이 경험하고 인지할 수 없는 시공간 스케일에서 나타나기 때문이다. 그런 성질을 발견하고 이해할 수 있게 되었다는 건 현대 물리학이 이룬 큰 성취이다. 우리는 이제 그런 양자 현상을 더 능동적으로 이용하려고 한다. 양자 상태를 가진 물리계를 생성하고, 조작하고, 관찰한다. 급기야 그것의 수명을 연장하고 크게 쌓아 올려서 쓸모 있는 일을 시키려고 한다. 바야흐로 양자 기술의 시대인 것이다. 양자가 세상을 바꾸리라는 보고서와 뉴스가 바이럴처럼 쏟아진다. 그래서 어지간한 사람들은 다들 그렇게 믿고 있는 모양이다. 정말 그럴지도 모른다. 양자 기술이 현재 이미 놀랍도록 세상을 바꾸고 있는 최신 IT 기술과 비교해도 충분히 쓸모가 있고 경쟁력이 있는 경우라면. 하지만 아직 그걸 낙관하기는 어렵다. 양자컴퓨팅을 예로 들자면, 특정 문제를 계산할 때 어떤 조건(비교적 양자에 너그러운)을 가정하면 양자가 우위를 보인다는 연구 결과가 보고되고 있지만, 실제 환경과 시장에서 그 우위와 유용성을 입증한다는 건 쉬운 일이 아니다. 그건 양자컴퓨터가 어떤 연산을 잘할 수 있고, 그게 얼마나 유용한 지를 찾는 게 힘들기 때문이기도 하지만, 그에 앞서 그 정도의 일을 수행할 만한 크고 정확한 양자컴퓨팅 시스템을 만들기가 아주 어렵기 때문이다. 양자 상태에 입력된 정보는 근본적으로 환경과의 상호작용 또는 조작에서 오는 오류에 취약하다. 아무리 특수한 환경에서 정교한 조작을 하더라도 연산에 참여한 양자 상태의 오류는 전파되고 누적된다. 결국 양자 시스템의 크기가 커질수록 연산 결과에 미치는 영향은 지수적으로 증가하여 어떤 알고리즘도 수행하기 어려워진다.
본 특집호에서는 양자 연산에서 이런 오류 문제를 궁극적으로 해결하기 위한 양자오류정정과 크고 쓸모 있는 양자컴퓨팅 개발의 최종 목표인 결함허용 양자컴퓨팅에 대해서 소개한다. 전 세계적으로 관련 연구가 활발해지는 시점에 그 기초와 동향을 소개할 수 있어서 기쁘게 생각한다. 첫 번째 원고는 ‘양자오류정정과 결함허용 양자컴퓨팅’의 제목으로 이 주제의 기초와 연구 동향을 소개한다. 두 번째 원고는 ‘결함허용 양자컴퓨팅을 위한 하이브리드 기법과 퓨전’으로 최근 개발된 하이브리드 양자오류정정 프로토콜과 오류정정 퓨전 기반 양자컴퓨팅을 소개한다. 세 번째 원고는 ‘색 부호를 활용한 결함허용 양자컴퓨팅’으로 색 부호와 양자오류정정 디코딩 방법에 대해 소개한다. 네 번째 ‘양자 자동오류정정의 물리적 이해’ 원고에서는 양자 자동오류정정에 대한 이해와 응용 방안을 소개한다. 양자오류정정의 폭넓은 연구 주제들을 특집에 다 담을 수 없어서 아쉬우며, 본 지면 외에도 다양한 기회로 양자오류정정이 소개되고 교류할 수 있는 장이 마련되기를 바란다.
서 론
양자 상태의 물리계는 외부 환경에 취약하여 쉽게 영향을 받아 변하고 사라진다. 그러니 그걸 우리가 만들고, 조작하고, 관찰하기 위해서는 양자 상태를 보호할 특수한 환경이 필요하다. 그런 환경 속에서 어렵게 만든 양자 상태에 우리는 큐비트(qubit, 양자 연산의 기본 단위)라는 역할을 주고 정보를 입력한다. 하지만 어떤 쓸모 있는 일을 수행하기 위해서는 꽤 많은 수의 큐비트가 필요하며 안정적으로 반복해서 연산을 수행해야만 한다. 이때 문제가 발생한다. 큐비트 하나에서 발생하는 오류를 아무리 줄이더라도 연산에 쓰이는 큐비트 수와 필요한 조작이 많아질수록 오류가 전파되고 누적되기 때문이다.
이런 문제는 애초에 양자가 가진 근본적인 성질에 기인한 것인데 양자정보 연구가 시작된 이래로 이를 해결하기 위한 노력은 계속됐다. 1994년에 쇼어 알고리즘으로 양자컴퓨팅의 가능성을 처음 알린 Peter Shor는 곧바로 1년 뒤에 쇼어 부호와 양자오류정정(quantum error correction)을 소개했다.1) 1996년 Andrew Steane은 스틴 부호를,2) 1997년 Alexei Kitaev는 위상론적(topological) 부호를 개발했다.3)
이처럼 양자오류정정 연구의 역사는 짧지 않지만, 이를 구현하려는 노력은 비교적 최근에 시작됐다. 한동안 간단한 실험을 할 정도의 큐비트조차 없었기 때문이기도 했지만, 더 많은 수의 큐비트를 확보하는 게 오류정정 구현보다 시급하게 여겨졌던 이유도 있다. 그 단적이 예를 IBM과 Google의 개발 전략에서 엿볼 수 있다. IBM은 현재 큐비트 수백 개 규모의 양자컴퓨팅 클라우드 서비스를 하고 있다. 하지만 Google은 훨씬 적은 수로도 양자오류정정이 구현된 논리 큐비트의 프로토타입을 먼저 구현했다.4)5) 그 원인은 큐비트 배열 구조의 차이점에 있다. Google의 배열은 표면(surface) 부호 오류정정 구현에 유리하지만, IBM은 상대적으로 어렵다. 큐비트를 어떻게 배치하고 쌓아 올릴지를 결정하는 양자컴퓨팅의 아키텍처는 오류정정 부호와 프로토콜에 따라 달라진다. 따라서 오류정정이 잘 작동하는 양자컴퓨터 개발을 위해서는, 첫 단계부터 그에 맞는 방식의 설계가 필요하다. 오류정정에 적합하지 않은 구조로 쌓아 올리다 나중에 변경하는 건 어렵다. 건축하던 중간에 빌딩의 구조를 바꾸는 것과 다름이 없다. 비교적 최근 초전도 기반 양자컴퓨팅 개발을 시작한 AWS (아마존), Alice&Bob, Nord Quantique 등의 기업은 처음부터 오류정정 수행에 장점이 있는 보소닉(bosonic) 상태의 큐비트 구조를 설계하여 개발하고 있다.
최근 몇 년 사이 초전도, 이온트랩, 중성원자, 광자 등 대부분의 물리계에서 양자오류정정 성과가 보고되고 있다. 중요한 이론 결과도 연달아 나오고 있다. 양자컴퓨팅 기업들은 앞다투어 자체 플랫폼에서 수행한 기초 실험 결과나 오류정정 기반 로드맵을 발표하고 있다. 불과 얼마 전까지 유행하던, 오류정정이 동작하지 않고 어느 정도 오류를 감수하는 수준에서 양자컴퓨팅의 쓸모를 찾는 단계를 칭하는 NISQ (Noisy-interdediated scale quantum)라는 용어는 계절이 지난 히트곡처럼 인기가 시들하다. 단순히 연구의 트랜드가 바뀌었다는 것이 아니다. NISQ 규모에서 양자 이득(양자 기술이 디지털 IT 기술의 성능을 뛰어넘었음을 칭하는 용어) 가능성을 찾는 방식이 휴리스틱 했기 때문이라거나, 오류 발생에 매우 취약하다는 연구 결과가 나오고 있기 때문만도 아니다. 애초에 양자컴퓨팅의 발전 방향과 최종 도달 목표가 결함허용(fault-tolerance)이기 때문이며, 그러기 위해서는 양자오류정정이 필수이기 때문이다. 오히려 자연스러운 연구의 발전 방향이라고 볼 수 있다.
결함허용을 달성하려면 큐비트뿐만 아니라 모든 자원과 장치에서 발생하는 오류를 다 고려하고도 연산의 규모가 커질수록 논리 오류가 감소해야 한다. 이를 위해서는 각 요소 기술의 발전과 함께 이를 통합할 고도의 설계 기술이 필요하다. 그만큼 갈 길이 멀 뿐만 아니라 애초에 도달 가능한 목표인지조차도 불확실하다. 하지만 과학기술의 발전은 최종 결과물보다 과정의 산물이 더 큰 자산이 될 때도 있다. 비즈니스가 아니라 탐구의 영역이라면 도전을 망설일 필요가 없다.
양자오류정정 관련 연구는 생각보다 폭이 넓고 다양하다. 양자컴퓨팅 외에도 양자통신과 센싱에 적용된다. 오류정정 부호, 플랫폼별 프로토콜 개발 및 결함허용 아키텍처 설계와 구현, 임계값 및 자원 소모량 분석, 보편적 컴퓨팅을 위한 논리 게이트 구현 기법, 디코딩 알고리즘, 자원과 비용 효율성 등의 다양한 연구 주제가 있으며, 양자오류정정 부호가 갖는 수학적 특성 및 물리학과 자연의 근본적인 문제를 이해하기 위한 방법론으로서도 연구되고 있다.
양자컴퓨팅의 오류
양자정보처리는 0과 1 상태의 양자 중첩으로 정의된 논리 공간에서 연산을 수행한다. 0과 1 비트로 연산을 수행하는 고전정보처리보다 발생하는 오류의 종류도 많고 복잡하다. 오류가 발생하는 주요 원인은 양자 상태의 외부와의 상호작용, 불완전한 양자 자원의 생성, 연산을 위한 조작과 측정에서 발생하는 잡음과 오류 등이다. 논리 공간 내에서 발생하는 오류는 모두 X 오류(bit-flip)과 Z 오류(phase-flip)로 분해된다(그림 1(a)). 하지만 실제 구현에서 발생하는 오류는 논리 공간 바깥으로 영역을 확장한다. 큐비트 역할을 하는 물리계가 사라져 버릴 수도 있고, 더 높은 차원의 공간에 침투하기도 한다.
양자정보처리가 고전정보처리와 다른 만큼, 양자오류정정도 고전오류정정과 근본적으로 다르다.
(1) 고전정보처리의 오류는 0과 1이 뒤집히는 X 오류뿐이지만, 양자정보처리에서는 X 오류\(\small(\alpha\left|0\right>+\beta\left|1\right> \rightarrow \alpha\left|1\right>+\beta\left|0\right>)\)와 Z 오류\(\small(\alpha\left|0\right>+\beta\left|1\right> \rightarrow \alpha\left|0\right>-\beta\left|1\right>)\)가 발생한다.
(2) 제한 없이 복제가 가능한 고전 정보와 다르게 큐비트 정보는 복제가 불가능하기 때문에(no-cloning theorem)6) 복제 정보를 활용하여 오류를 정정할 수 없다.
(3) 고전정보처리에서 측정은 단순히 정보를 읽어내는 행위지만, 큐비트에 입력된 정보는 측정을 하면 상태가 변하거나 붕괴된다. 오류 발생을 확인하기 위해 정보를 읽어내면, 큐비트 정보는 더이상 양자 연산에 활용될 수 없다. 따라서 연산 중 실시간으로 반복해서 오류를 정정하기 위해서는 정보의 획득 없이 오류 발생만을 탐지해야 한다.
하나의 큐비트에서 발생하는 오류는 게이트 연산을 통해서 다른 큐비트로 쉽게 전파되고 증폭된다(그림 1(b)). 연산에 참여하는 큐비트의 수가 많아지면 오류가 더 전파되고 누적되어 지수적으로 증가한다. 시스템을 구현하는 데 필요한 자원과 장치에서 발생하는 오류도 더 커진다. 단순히 큐비트 수가 많아지면 양자컴퓨팅의 성능이 좋아진다고 말할 수 없는 이유이다.
양자오류완화와 NISQ
활용할 수 있는 큐비트 수가 수십에서 수백 개 규모로 늘었지만 양자오류정정이 수행되지 않는 단계를 NISQ라고 한다. 발생하는 오류를 어느 정도 감수하고 양자오류완화 기술을 활용하여 양자컴퓨팅의 유용성을 찾으려는 연구가 NISQ 단계에 포함된다고 할 수 있다. 큐비트의 오류를 줄이고 완화하는 방법은 다양하다. 양자정보처리의 입력, 조작, 그리고 후처리(post-processing)의 단계별로 기술을 구분할 수 있다.
[입력 단계]
잡음의 영향을 피할 수 있는 힐버트 부분 공간에서 기저 상태를 정의하고 큐비트 정보를 입력하는 섭동자유공간(decoherence-free subspace) 방법7)이 있다. 뒤에 설명할 양자오류정정의 부호화와 비슷하지만 신드롬 측정, 디코딩과 오류를 정정하는 능동적인 과정이 없는, 오류를 회피하기 위한 목적의 수동적인 방법이다.
[조작 단계]
연산 중에 개방 루프 양자 조작(open-loop quantum control)을 통해 오류를 감쇄하는 기법도 활용된다. 큐비트와 환경의 상호작용을 방해하여 결깨짐을 늦추는 방법인 동적 짝풀림(dynamical decoupling)8)은 널리 활용되는 기술이다. 양자 회로의 다중 큐비트 조작에서 발생하는 결맞은(coherent) 오류를 억제하는 무작위 컴파일링(randomized compiling)9)도 제안되었다. 이 밖에도 발생하는 오류에 최적화된 게이트 조작 기술 등이 있다.
[후처리]
관측가능량의 기댓값을 구하는 연산에서는 측정 이후 후처리로 오류 효과를 줄일 수 있다. 오류의 크기가 다를 때의 기댓값을 비교하여 오류가 없을 때의 기댓값을 유추하는 제로잡음 외삽법(zero-noise extrapolation),10) 게이트의 확률적인 조작으로 기댓값의 오류 효과를 상쇄시키는 확률적 소거법(probabilistic cancellation),10) 여러 보조 양자 상태를 동시에 활용하여 오류 효과를 제거하는 가상 증류법(virtual distillation)11) 등이 있다.
양자오류완화 기술은 다양한 플랫폼에서 이미 널리 활용되고 있다. 큐비트 한 개부터 여러 큐비트에도 적용이 가능하며 활용성이 높다. 하지만 그 한계도 명확하다. 특정 오류에만 잘 동작한다거나, 오류의 종류를 사전에 파악해야 하는 조건 등이 있어서 연산 규모가 커지면 활용이 어렵고 효과도 줄어든다. 동적 짝풀림은 낮은 주파수의 오류에서만 잘 동작한다. 제로잡음 외삽법은 오류 발생 요인의 인위적인 조작이 불가능한 실제 환경에서는 활용이 어렵다. 확률적 소거법은 오류에 대한 정확한 정보가 사전에 필요하며, 가상 증류법은 양자 상태의 복제가 여러 개 필요하다. 또한 오류완화 기법은 반복적인 실시간 활용이 불가하고 측정 이후 데이터의 후처리 단계에서 쓸 수 있다.
‘NISQ 수준의 양자컴퓨팅에서 양자오류완화만으로 쓸모 있는 계산을 하고 양자 이득에 도달할 수 있을까?’에 대한 답은 많은 연구자들이 도전하는 과제다. 명확한 답을 내리기는 어렵다. 하지만 최근 연구 결과들을 살펴보면 NISQ에서 양자 이득 달성 전망은 그리 밝지 않다.
IBM 양자 프로세서는 NISQ 시스템의 선두 주자다. 수백 개 규모의 큐비트로 연산이 가능하고, 클라우드 서비스를 통해 교육과 연구에도 널리 활용된다. 2023년 Google이 72큐비트로 양자오류정정 기초 구현에 성공하여 Nature4)에 논문을 발표하고 몇 달 뒤, IBM도 Nature에 ‘Evidence for the utility of quantum computing before fault-tolerance’12)라는 논문을 발표했다. IBM이 실제 클라우드 서비스를 하는 127큐비트 시스템에서 양자오류정정 없이도 쓸모 있는 계산을 할 수 있다는 걸 보여주기 위한 시도였다. 고전 컴퓨팅으로 계산이 어렵다는 이징 모델(Ising model)을 시뮬레이션하고 제로잡음 외삽법으로 오류를 완화했다. 양자오류완화 기법을 구현하고 연산에 활용한 중요한 실험 결과다. 하지만 외삽법 적용을 위해 일부러 더 많은 자원을 활용하며 인위적으로 오류를 증폭시켰고, 양자 이득 달성으로 예측된 결과가 논문 발표 후 불과 며칠 만에, 고전 컴퓨터, 심지어 개인용 노트북으로도 빠르게 계산됐다는 보고가 잇달아 논란이 되기도 했다. 또 간과되었던 다른 사항은, 이징 모델(Ising model)의 해밀토니언(Hamiltonian)을 분할(trotterization)한 형태로만 시뮬레이션을 한 것인데, 유니터리 전개에서 연산이 어려운 고차 항은 모두 무시하고 계산을 한 것과 같다. 이로써 발생하는 알고리즘 오류도 연산 규모가 커질수록 지수적으로 커질 수밖에 없다.
계산 복잡도에 근거하여 확실한 양자 이득 달성이라고 믿었던 샘플링(sampling) 문제13)나 NISQ 수준에서 양자 이득으로 여겨졌던 다양한 최적화 양자 알고리즘14)도 오류가 발생하는 실제 환경에서는 고전 알고리즘으로 다항 시간 계산이 가능하다는 결과가 보고되고 있다. 양자오류완화 기법의 근본적인 한계를 연구한 결과가 최근에 보고되기도 했다.15) NISQ 수준에서 양자 이득 달성이 불가능하다고 단정할 수는 없지만, 이와 같은 동향은 양자컴퓨팅 연구의 목표가 이제 양자오류정정 중심으로, 결국에는 결함허용 양자컴퓨팅 구현 중심으로 옮겨가고 있다는 것을 알리는 신호라고 볼 수 있다.
양자오류정정 기초
양자오류정정은 큐비트 정보를 복수의 물리 큐비트 또는 확장된 논리 공간에 입력하여, 발생하는 오류를 검출하고 정정하는 기술이다. 양자오류정정 수행의 한 주기는 오류정정 부호화가 된 논리 큐비트(logical qubit)의 준비, 오류 발생, 오류를 발견하는 측정과 디코딩(decoding), 마지막으로 오류를 정정하는 과정으로 이루어진다(그림 2). 양자컴퓨팅에서 결함허용(fault-tolerance)을 달성하려면 이 모든 과정을 반복적으로 수행하여 더 많은 수의 큐비트가 참여하는 연산에서 논리 오류가 지수적으로 감소해야 한다.
1. 양자오류정정과 스테빌라이저(stabilizer)
오류정정을 이해하기 위해서 우선 간단한 고전오류정정 방법을 살펴보자. 0과 1의 비트 정보가 뒤집어지는 오류를 발견하고 수정하기 위한 가장 쉬운 방법은 복수의 비트를 활용하는 것이다. 간단한 예로 0과 1의 정보를 000과 111로 3개의 비트에 각각 입력한다. 오류가 발생해 000이 100, 010 또는 001로 바뀌었다면, 우리는 어디에서 오류가 발생했는지 쉽게 진단하고 정정할 수 있다. 이 경우에는 두 개 이상의 비트에서 발생한 오류는 정정이 불가능하지만, 입력하는 비트의 수를 늘이면 수정 가능한 오류의 수도 늘어난다. 이런 입력 방식을 반복(repetition) 부호라고 한다.
이제 양자정보처리로 상황을 바꿔서 생각해 보자. 임의의 큐비트 \(\small\alpha\left|0\right>+\beta\left|1\right>\)에 발생하는 오류를 발견하고 수정하기 위해 마찬가지로 3개의 큐비트로 논리 큐비트 \(\small\alpha\left|000\right>+\beta\left|111\right>\)를 구성할 수 있다. 오류가 발생하여 \(\small\alpha\left|010\right>+\beta\left|101\right>\)이 되면 각 큐비트를 측정하여 어디에서 오류가 발생했는지 쉽게 알아낼 수 있다.
하지만 앞서 ‘양자정보의 오류’에서 설명했듯이 측정으로 큐비트의 정보를 알아내면 그 상태가 붕괴된다. 즉, 고전 오류정정처럼 각 큐비트의 상태가 0인지 1인지를 확인하는 측정을 하면 큐비트의 상태가 붕괴되어 오류를 정정하고 다시 연산에 투입할 수 없다. 큐비트의 정보를 알아내는 측정으로도 결과값에서 후처리로 오류 효과를 줄일 수 있지만, 이는 양자오류정정이 아니라 양자오류정정 부호화를 통한 오류완화 또는 양자오류검출(quantum error detection)로 볼 수 있고, 연산 도중에는 쓸 수 없다.
Fig. 3. (a) Quantum error detection. (b) Quantum error correction with stabilizer.
입력된 상태의 정보가 붕괴되지 않으면서 큐비트를 측정하여 오류 발생 여부만 확인할 수 있을까? 앞서 설명한 논리 큐비트 \(\small\alpha\left|000\right>+\beta\left|111\right>\)에서 그 방법을 살펴보자. 이해를 돕기 위해 그림 3처럼 큐비트 역할을 하는 학생들에게 질문을 던진다고 가정해 보자. 그림 3(a)처럼 정보가 입력된 세 학생에게 0인지 1인지 직접 묻고 결과를 비교해도 오류 발생 여부와 위치를 알 수 있다. 하지만 입력된 정보는 사라지고 상태는 붕괴된다. 따라서 그림 3(b)에서처럼 정보가 입력된 세 학생 대신 그 사이에 두 명의 보조 학생을 배치하고 묻는다. “양옆의 학생들이 같은 숫자를 갖고 있습니까?” 이 질문은 세 학생에게 입력된 정보를 직접 묻지 않는다. 따라서 상태가 붕괴되지 않는다. 이를 수식으로 써보자. 보조 학생에게 하는 질문은 각각 Z1Z2와 Z2Z3 측정이다. 양옆의 학생이 0 또는 1로 같으면 +1을, 서로 다르면 ‒1의 답을 준다. 예를 들어, 첫 번째 학생에게 오류가 발생해서 \(\small\alpha\left|100\right>+\beta\left|011\right>\)가 되었다면, Z1Z2 측정 결과는 ‒1, Z2Z3의 결과는 +1이 된다. 이 결과로부터 우리는 첫 번째 학생에서 오류가 발생했다는 사실을 알아낼 수 있다. 그림 3(b) 테이블처럼 한 곳에 발생한 모든 X 오류(bit-flip)를 알아내고 정정할 수 있다.
Fig. 4. The syndrome measurement circuit for the stabilizer Z1Z2 and Z2Z3.
이렇게 Z1Z2와 Z2Z3처럼 논리 큐비트 정보를 획득하지 않고 오류 발생과 위치만 확인하는 측정 연산자를 스테빌라이저(stabilizer)라고 한다. 스테빌라이저는 \(\small P\left|\psi\right>=(+1)\left|\psi\right>\)처럼 논리 큐비트 \(\small\left|\psi\right>\)를 고유상태(eigenstate)로 갖는 연산자다. 오류가 발생한 경우에는 \(\small P\left|\psi\right>=(-1)\left|\psi\right>\)와 같이 다른 결과를 준다. X 오류와 Z 오류 스테빌라이저는 모두 파울리 그룹에 속하며 동시 측정이 가능해야 한다. 즉, \(\small [P_i,P_j]= 0, \forall(i,j)\). 주어진 부호에서 모든 오류 검출이 가능한 가장 적은 수의 스테빌라이저를 포함한 그룹을 최소 스테빌라이저 그룹이라고 하며, 이 스테빌라이저들이 생성원(generator) 연산자가 된다. 보조 큐비트를 활용한 스테빌라이저 측정을 신드롬(syndrome) 측정 또는 패리티 검사(parity check)라고 한다. 3큐비트 반복부호에서는 Z1Z2와 Z2Z3 두 측정만으로 한 큐비트에서 발생한 X 오류를 모두 발견할 수 있으며, 신드롬 측정은 그림 4처럼 수행한다.
2. 양자오류정정 부호
양자오류정정의 목표는 X와 Z 오류를 모두 검출하고 정정하는 것이다. 1995년 Peter Shor는 반복 부호의 확장하여 논리 큐비트의 기저 상태를 \(\small\left|0\right>_L≈(\left|000\right>+\left|111\right>)^{⊗3}, \left|1\right>_L≈(\left|000\right>-\left|111\right>)^{⊗3}\)로 정의하고 두 종류 오류를 모두 정정할 수 있는 9큐비트 쇼어 부호를 개발했다.1) 1996년 Andrew Steane은 고전 해밍(Hamming) 부호를 병합하여 7큐비트 스틴 부호를 개발했다.2) 스틴 부호처럼 두 개의 고전오류정정 부호를 X와 Z 오류에 모두 대응하도록 병합한 방식을 Calderbank-Shor-Steane (CSS) 계열 부호라고 한다. 1997년 Alexei Kitaev는 위상론적(topological) 부호를 개발했다.3) 2D 격자구조에서 정의된 표면(surface) 부호가 대표적인 위상론적 부호이다. 그 외에도 토릭(toric), 색(color) 부호 등이 있다. 색 부호는 세 번째 원고 ‘색 부호를 활용한 결함허용 양자컴퓨팅’에서 자세히 다룬다.
양자오류정정 부호는 일반적으로 [[n,k,d]]로 표기하고 구분한다. n개의 물리 큐비트로 k개의 논리 큐비트를 구성하는 부호를 나타낸다. d는 부호의 거리(distance)를 나타내며, 논리 조작을 위해서 최소 몇 개의 물리 큐비트를 조작해야 하는지를 나타낸다. [[n,k,d]] 부호는 (d‒1)/2개의 오류를 정정할 수 있다. d≫3일때 오류정정이 가능하며, d<3이면 오류의 탐지만 가능하다. 예를 들어 [[9,1,3]] 쇼어 코드나 [[7,1,3]] 스틴 코드는 각각 9개나 7개의 물리 큐비트로 하나의 논리 큐비트를 구성하며 한 개의 물리 큐비트에 발생하는 오류를 정정할 수 있다. [[8,3,2]] 색 부호는 8개의 물리 큐비트로 3개의 논리 큐비트를 구성할 수 있지만 오류 탐지만 가능하다. R=k/n는 물리 큐비트 대비 몇 개의 논리 큐비트를 구현할 수 있는지를 나타내는 부호율(code rate)이다. 높은 부호율의 부호는 높은 자원 효율성을 갖는다. m=n‒k은 수행해야 하는 신드롬 측정의 수를 나타낸다.
표면 부호는 가장 널리 활용되는 양자오류정정 부호다. 원환체(torus)의 표면에서 동작하는 토릭(toric) 부호와 구별하여 평면(planar) 표면 부호라고도 한다. 그림 5와 같이 2차원 평면에서 정보 입력을 위한 데이터 큐비트나 신드롬 측정을 위한 보조 큐비트가 사각형 격자를 이룬다. 경계에 있는 경우를 제외하고 일반적으로 큐비트 하나에 4개의 큐비트가 이웃한다. 이러한 배열이 반복되는 구조로 논리 큐비트를 구현한다. 보조 큐비트에서는 이웃한 데이터 큐비트에서 발생하는 오류를 탐지하기 위한 X와 Z 스테빌라이저의 신드롬 측정(패리티 검사)을 한다. 거리 d인 표면 부호의 논리 큐비트 한 개를 입력할 때 최소한 d2개의 물리 큐비트와 d2‒1개의 보조 큐비트가 사용된다. 한 종류의 오류가 더 자주 발생할 때, 예를 들어 Z 오류가 X 오류보다 더 빈번하게 발생할 때는 그에 맞게 변형된 XZZX 표면 부호16) 등이 활용된다.
한편 측정 기반(measurement-based)으로 양자오류정정을 구현하려면 시간축으로 확장된 3차원 격자 구조가 필요하다. 클러스터(cluster) 상태를 결함허용 구조로 시간 축에 확장하는 것을 엽리(foliation) 구조화라고 하며, 표면 부호의 엽리 구조체를 Raussendorf-Bravyi-Harrington (RHG) 격자 구조라고 한다. 시간 축에 배열된 각 시트(sheet)에서 순차적으로 측정을 수행하며 연산과 오류정정이 구현된다. 관련 내용은 두 번째 원고 ‘결함허용 양자컴퓨팅을 위한 하이브리드 기법과 퓨전’에서 다룬다.
표면 부호는 1% 정도로 가장 높은 수준의 임계값을 갖는다. 표면 부호는 이웃 큐비트 사이의 연결만으로 구현이 가능해서, 초전도 기반 시스템처럼 인접한 큐비트 사이의 상호작용만 가능한 플랫폼에서도 잘 동작한다. 하지만 부호율이 1/n이기 때문에 논리 큐비트 한 개를 구현하는 데에도 아주 많은 수의 물리 큐비트가 필요하다.
최근 qLDPC (Quantum low density parity check) 계열의 부호들이 주목받고 있다.17) qLDPC 계열의 부호는 패리티 검사가 한정된 물리 큐비트 내에서 국소적으로 수행된다. 이런 의미로 표면 부호나 색 부호도 qLDPC 계열이다. 논리 큐비트와 오류정정의 층위(level)를 추가하여 확장하는 연접(concatenation) 방식의 부호와 비교하면 높은 부호율을 가진다. 자원 효율성이 좋고 디코딩의 복잡도가 낮은 장점이 있다. 장거리 연결성을 활용한 qLDPC 부호들로 시간과 공간 효율성을 개선하는 결과가 보고되었으며,18)19) [[144,12,12]]의 Bivariate Bicycle (BB) 부호를 입력하면 표면 부호의 10% 수준의 물리 큐비트만 이용해도 비슷한 수준의 결함허용성 달성이 가능하다는 분석 결과가 보고되었다.20) 다만, 이런 부호들을 실제 구현하려면 높은 신뢰도의 장거리 연결과 조작이 필요하고, 보편적 양자컴퓨팅을 위한 논리 게이트의 구현 방법도 개발되어야 한다.
지금까지 여러 물리 큐비트의 부호화를 통해서 논리 큐비트 구현하는 이산 변수(discrete variable) 방식의 양자오류정정을 소개했지만, 양자 조화진동자(harmonic oscillator)의 무한 차원에서도 오류정정 부호를 입력하고 논리 큐비트를 정의할 수 있다. 이런 부호를 연속 변수(continuous variable) 부호 또는 보소닉(bosonic) 부호라고 한다. 하나의 보손 모드에서 논리 큐비트가 정의되기 때문에 이산 변수 방식에 비해 자원 효율성이 높으며, 손실 오류에 효과적이다. 대표적으로 GKP (Gottesman-Kitaev-Preskill) 부호, 이항(binomial) 부호, 고양이(cat) 부호 등이 있다. 초전도체의 마이크로파(microwave), 이온 덫의 운동(motional) 모드, 광학 기반 시스템 등에서 구현이 가능하다. 광기반 양자컴퓨팅 기업인 Xanadu와 초전도 기반의 Nord Quantique는 GKP 부호 방식으로, 초전도 기반의 AWS와 Alice&Bob은 고양이 부호 방식으로 논리 큐비트를 구현하고 있다. 두 번째 원고 ‘결함허용 양자컴퓨팅을 위한 하이브리드 기법과 퓨전’에서는 보소닉 부호와 이산 변수 부호를 병합하는 방식의 오류정정 양자컴퓨팅을 소개한다.
양자오류정정 구현과 결함허용 양자컴퓨팅
실시간 양자오류정정이 수행되는 양자컴퓨팅 구현과 결함허용 달성의 전제조건은 다음과 같다.
- 높은 결함허용 임계값(threshold)과 임계값 미만의 오류율 달성. 즉, 모든 구성 요소에서 오류가 발생하는 실제 환경에서 논리 오류의 지수적인 감소
- 보편적(universal) 양자컴퓨팅을 위한 논리 게이트의 정밀하고 자원 효율적인 구현
- 자원 소모량과 비용의 선형적 증가
- 빠르고 정확한 측정, 실시간 디코딩(decoding)과 수정
연산에 쓰는 큐비트 수가 많아지고 양자컴퓨팅 시스템의 크기가 커지면 각 요소에서 발생하는 오류가 누적되고 전파된다. 결국 논리 오류율은 증가한다. 양자오류정정의 목표는 이런 논리 오류가 발생하고 누적되지 않도록 실시간으로 탐지하고 정정하는 것이다. 구체적으로는 양자컴퓨팅에서 결함허용 임계값(fault-tolerant threshold) 미만의 오류율을 달성해야 한다. 결함허용 임계값이란 오류정정 부호의 입력 거리(distance)가 증가할 때 논리 오류율이 줄어드는 물리 큐비트의 최대 허용 오류율이다(그림 6). 따라서 물리 큐비트의 오류율이 임계값 미만으로 구현된다면, 우리는 양자오류정정을 통해서 어떤 연산에서도 (충분한 자원과 비용만 있다면) 논리 오류 문제를 해결할 수 있다.
임의의 결함허용 양자컴퓨팅 연산이 수행되기 위해서는 보편적 양자컴퓨팅에 필요한 논리 게이트 집합의 요소가 구현되어야 한다. 이 집합은 임의의 연산에 필요한 모든 요소 게이트로 구성되어 있으며, 임의의 연산은 이 요소 게이트들의 배열로 모두 분해된다. 예를 들어, Hadamard, S=diag(1,eiπ/2), CNOT 및 T=diag(1,eiπ/4) 게이트는 보편적 양자 연산을 위한 집합을 이룬다. Hadamard, S와 CNOT 게이트는 Clifford 계열이고, T 게이트는 Non-clifford 계열이다. Clifford 게이트로만 이루어진 연산은 고전 시뮬레이션이 가능하기 때문에, 양자컴퓨팅 연산에는 Non-Clliford 게이트의 구현이 필요하다.
논리 게이트는 기본적으로 횡단적인(transversal) 방식으로 구현하는 것이 이상적이다. 이 경우 오류정정 부호가 입력된 한 블록의 논리 연산이 단일 큐비트 게이트의 결합으로 구현되며, 다중 블록 연산에서만 연결된 조작이 사용된다. 만약, 한 논리 큐비트 내에서 다중 큐비트 연산이 수행되면 그림 1(b)에서처럼 물리 큐비트들 사이에서 오류가 퍼져나가 수정이 불가능한 오류가 발생한다. 하지만, 전체 논리 게이트의 횡단적 구현은 원리적으로 불가능하다. 예를 들어, 스틴 부호에서 Hadarmard, S와 CNOT 게이트는 횡단적 구현이 가능하지만, T 게이트는 불가능하다. 이런 논리 게이트의 구현 방법은 부호마다 다르며, 각 부호별로 오류가 증가하지 않는 결함허용성을 갖는 논리 게이트 구현 방법이 다양하게 연구되고 있다. 표면(surface) 부호의 경우 Clifford 계열은 격자 수술(lattice surgery)이라는 코드 변형 방법으로 구현할 수 있다. Non-Clifford 계열인 T 게이트를 구현하기 위해서는 마법(magic) 상태를 주입하는 방법이 활용되는데, 잡음이 있는 마법 상태를 증류(distillation)하여 순도 높은 상태를 만든다. 이때 결함허용 증류를 위해 T 게이트가 횡단 방식으로 구현되는 Reed-Muller 등의 다른 부호가 활용될 수 있다. 하지만, 논리 게이트의 결함허용적인 구현에는 추가 자원이 많이 소모되어, 오버헤드가 지수적으로 증가하는 문제가 발생한다. 적어도 선형적인 소모율을 달성해야 양자컴퓨팅 시스템 확장이 실현될 수 있다.
오류정정을 실시간으로 수행하여 결함허용 수준을 달성하려면, 신드롬 측정 결과로부터 빠르게 오류 발생 위치를 파악하고 수정해야 한다. 즉, 실시간으로 처리되는 효과적인 디코딩(decoding) 방법이 필요하다. 일반적으로 [[n,k,d]] 부호가 입력된 논리 큐비트에서는 m=k‒n개의 신드롬 측정이 수행되는데, 각 측정에서 1비트의 결과가 나오면 총 2m개의 비트 결과가 생성된다. 예를 들어 부호 거리 d=5인 표면 부호 [[41,1,5]]로 입력된 논리 큐비트 한 개에서만 오류정정 신드롬 측정으로 240개의 데이터가 생성된다. 부호 거리가 커지면 더 방대한 데이터가 생성된다. 따라서 실시간 오류정정이 가능하려면 이를 빠르게 처리하는 알고리즘이 필요하다. 근사적인 추론 방법을 이용한 다양한 디코딩 알고리즘이 부호에 맞게 개발되고 있다. 표면 부호는 Minimum-weight perfact matching (MWPM)이라는 알고리즘이 주로 활용된다. 세 번째 원고 ‘색 부호를 활용한 결함허용 양자컴퓨팅’에서 양자오류정정 디코딩 방법에 대해 더 소개한다.
양자오류정정 구현 연구 동향
최근 양자오류정정은 양자컴퓨팅 분야에서 가장 주목받는 연구 주제가 됐다. 불과 몇 년 전만 해도 오류정정은 개발의 마지막 단계의 목표로 미루고 NISQ에 집중하던 기업들도 이제 오류정정 관련 기술을 서둘러 개발하고 있다. 양자정보 국제 학회에서나 분야의 저널에도 관련 주제의 발표가 부쩍 늘었다.
다양한 양자컴퓨팅 플랫폼에서 오류정정 가능성을 증명하는 실험이 진행되고 있다. 아직 대부분 오류정정 부호화와 오류 탐지를 통한 break-even을 목표로 하는 수준이다. 여러 물리 큐비트로 부호화된 논리 큐비트 오류율을 물리 큐비트 한 곳의 오류율 수준으로 억제하면 break-even을 달성했다고 한다. Break-even은 오류정정 프로토콜이 동작하고 있음을 증명하는 최소한의 목표이다. 이 원고를 작성 중이던 2024년 8월 Google이 아카이브(arXiv)에 새로운 실험 결과를 공개했다. 이 결과는 실시간 양자오류정정으로 break-even을 뛰어넘어 결함허용 수준의 논리 큐비트 1개를 성공적으로 구현한 첫 번째 사례가 될 것으로 보인다. 이번 장에서는 주요 플랫폼별 양자오류정정 연구 동향과 최신 결과를 소개한다.
1. 초전도 기반
대표적인 초전도 양자컴퓨팅 개발사는 미국의 Google, IBM, AWS(아마존) 등이다. 프랑스의 Alice&Bob과 캐나다의 Nord Quantique 등도 최근 좋은 성과를 내고 있다. 대학과 연구소에서도 꾸준히 연구를 진행 중이다. 대표적으로 스위스 연방 공대(ETH)와 예일 대학 등이 있다.
초전도 기반에서도 큐비트 구현 방법이나, 배열 구조 등이 모두 다르다. Google과 IBM은 트랜스몬(transmon) 큐비트를 배열하는 구조가 다르다. Google은 4각형 격자, IBM은 헤비헥사곤(heavy-hexagon) 형태의 벽돌 구조 격자로 배열한다. 경계에 있는 경우를 제외하고 큐비트 하나에 이웃하는 큐비트 수는 Google이 4개, IBM이 3개로, Google의 구조는 표면 부호 입력에 용이하지만, IBM은 적합하지 않으며 별도의 부호화 연구가 필요하다.
Google은 꾸준히 오류정정 기술을 개발하고 결과를 발표해 왔다. 2021년 2차원 큐비트 격자 배열 구조에서 X 또는 Z의 한 종류 오류를 반복 부호를 통해 탐지하고 지수적으로 억제하는데 성공했고,21) 2023년 72개의 큐비트에 거리 d=3과 5의 XZZX 표면 부호를 입력하여 논리 오류가 줄어드는 걸 관찰했다.4) 2024년 8월 아카이브에 공개한 논문에서는 102개의 물리 큐비트로 d=7까지 부호화하고, 실시간 오류정정을 통해서 논리 오류가 지수적으로 감소하는 결과를 공개했다.5) 큐비트가 논리 공간 바깥으로 빠져나가는 누출(leakage) 오류 억제 기술도 활용했다. 사상 처음 임계값 미만의 오류율을 달성한 결과이자 결함허용의 가능성을 보여준 연구이다. 물론 아직 메모리 역할을 하는 한 개의 논리 큐비트가 있을 뿐이며, 논리 게이트 구현 및 확장된 연산 실현은 여전히 도전적이며 쉽지 않은 일이다.
IBM은 아직 오류정정 구현 대신, 물리 큐비트 수 증가와 오류완화에 집중하는 것으로 보인다. 다만, 이론 연구에서는 좋은 성과가 발표되고 있다. qLDPC 계열인 [[144,12,12]]의 Bivariate Bicycle (BB) 부호를 이용하면 표면 부호화 수준의 메모리 임계값을 달성하는데 큐비트 소모량을 최대 10배 절감할 수 있다고 발표했다.1) BB 부호의 오류정정을 위해서는 2차원 4각형 격자 구조를 기본으로 떨어져 있는 데이터 큐비트와 보조 큐비트 사이의 연결도 추가로 필요하다. 장거리 연결성이 떨어지는 초전도 시스템에서 이 구조를 실제로 구현하고 결함허용까지 달성하는 건 쉽지 않을 것으로 예측된다.
비교적 최근에 양자컴퓨팅 개발에 착수한 AWS (아마존), Alice&Bob, Id Quantique 등의 기업은 처음부터 양자오류정정 중심의 설계를 하고 있다. 특히 보소닉 방식의 오류정정 구현을 목표로 한다. AWS와 Alice&Bob은 초전도 시스템의 마이크로파 공진기에서 고양이 상태 큐비트를 구현하고 외부 아키텍처에서 추가 오류정정 수행을 목표로 하고 있고, Nord Quantique는 초전도 시스템에서 GKP 상태를 구현했으며 이를 확장하기 위한 연구를 진행하고 있다.
이 외에도 2022년 스위스 연방공대(ETH)의 연구팀은 17개의 트랜스몬 큐비트로 표면 부호 오류정정을 반복적으로 수행하여 break-even에 가까운 결과를 보여주었으며,22) 예일대는 마이크로파에서 고양이와 GKP 보소닉 오류정정 부호 등의 입력에 성공하고 관련 연구를 수행하고 있다.23)
2. 중성원자 기반
중성원자는 2023년 하버드대와 Quera사 팀의 양자오류정정 실험 결과24)로 단숨에 결함허용 양자컴퓨팅 구현에서 경쟁력 있는 플랫폼으로 떠올랐다. 연구팀은 광족집게(optical tweezer)에 포획된 원자에서 효과적인 단일 및 다중 큐비트 조작과, 원자의 재배열 기술을 선보였다. 이 기술을 바탕으로 280개의 중성원자 큐비트에 표면 부호를 비롯한 여러 부호가 입력된 논리 큐비트와 논리 게이트를 구현하고, 부호 거리가 커질 때 오류 억제에 성공했다. 특히, 입력율이 높은 3D [[8,3,2]] 오류탐지 부호를 입력하여 48개의 논리 큐비트를 입력했으며, non-Clifford 논리 게이트의 횡단적인 구현에도 성공했다.
다만 중성원자 시스템이 논리 큐비트 입력과 오류 탐지 수준을 넘어서, 실시간 양자오류정정을 구현하고 결함허용 단계를 달성하는 데는 넘어야 할 산이 있다. 우선 중성원자의 오류정정 조작과 프로세스는 초전도와 비교하면 수백 배 정도로 오래 걸린다. 또한 중성원자는 측정을 하면 사라지고 중간에 소실되기도 하며, 측정 시간도 오래 걸린다. 따라서 반복적인 실시간 양자오류정정 구현이 어렵다는 단점이 있다. 결함허용 달성을 위해서는 그림 2의 모든 과정이 빠르고 반복적으로 수행될 수 있어야 하며, 측정 후에 새로운 중성원자 큐비트의 빠른 재배치도 필요하다.
3. 이온트랩 기반
이온트랩 기반 큐비트는 결맞음 시간이 길고, 높은 신뢰도의 게이트 구현이 가능하고, 모든 큐비트의 연결성이 뛰어나다. 이온트랩 기반 개발사는 대표적으로 미국의 IonQ와 Quantinuum (구 Honeywall)이 있다. 작은 규모의 오류정정 구현 실험은 이온트랩에서 가장 활발히 수행됐다.
2021년 Quantinuum은 10큐비트 시스템에서 [[7,1,3]] 스틴 부호를 입력하고, 그림 1(a)의 전체 과정을 반복적으로 수행하는 실시간 오류정정을 구현하였으며, break-even 수준을 달성했다.25) 2022년에는 20큐비트 시스템에서 스틴 부호와 5큐비트 부호가 입력된 두 논리 큐비트 사이에서 오류정정이 수행되는 논리 조작을 구현했다. 최근에도 큐비트 연결성이 좋은 장점을 바탕으로 다양한 오류정정 연구를 수행하고 있다. Micorsoft사와의 협력으로 break-even을 넘어서는 오류 감소 달성,26) 높은 부호율의 [[8,3,2]] 색 부호27) 입력 등 여러 부호 기반 오류정정 실험을 수행하고 있다.
IonQ는 아직 오류정정 구현에서 뚜렷한 성과를 보여주고 있지 않으며, IBM과 마찬가지로 클라우드 서비스를 통해 NISQ 활용 연구와 오류완화에 집중하고 있다. Clifford 계열 게이트의 오류를 오류정정보다 적은 오버헤드로 억제할 수 있는 기법을 최근 소개했다.
4. 광 기반
대부분 플랫폼이 회로 기반(circuit-based)인 것과 달리, 광자 플랫폼은 측정 기반(measurement-based)으로 개발된다. 광자는 측정하면 사라지지만, 얽힘 생성이 용이하고, 측정 속도가 빨라서 측정 기반 양자컴퓨팅에 적합하다. 상온 동작과 칩 기반 구현으로 모듈화가 가능해서 결함허용 구조의 설계와 구현에도 유리하다. 따라서 다른 플랫폼이 향후 직면할 수 있는 확장성 문제에서도 비교적 자유롭다.
대표적인 기업은 미국의 PsiQuantum과 캐나다의 Xanadu Quantum Technologies이다. 영국의 ORCA computing, 프랑스의 Quandela 등의 스타트업과, 최근 GKP 상태 생성에 성공한 도쿄대 등도 활발한 연구를 진행하고 있다.
PsiQuantum은 최근 측정 기반 양자컴퓨팅의 단점을 보완하는 퓨전 기반(fusion-based) 양자컴퓨팅 방법론을 개발했다.28) 대규모 얽힘 자원을 미리 준비해야 하는 측정 기반과 달리, 퓨전 기반은 소규모 광자 얽힘 자원만으로 양자오류정정 수행과 결함허용 연산이 가능하다. 하지만 광 손실 환경과 선형 광학기의 낮은 퓨전 효율이 양자컴퓨팅과 오류정정 성능에 직접 영향을 주는 문제가 있다. 최근 제안된 이를 극복하는 방법은, 두 번째 원고 ‘결함허용 양자컴퓨팅을 위한 하이브리드 기법과 퓨전’에서 소개한다.
Xanadu는 보소닉 GKP 부호 기반 결함허용 양자컴퓨팅 개발을 목표로 한다. 광학적으로 생성된 GKP 상태를 연결해서 RHG 격자 등의 외부 아키텍처를 구성하고, 이 구조체에서 결함허용 연산을 수행한다. 광학 기기에서 GKP 상태의 생성은 쉽지 않을 것으로 예측됐지만, 최근 도쿄대에서 광학 테이블 기반으로 처음 구현에 성공했다.29) Xanadu는 이미 확보한 가우시안 보존샘플링 기법과 타임 멀티플렉싱 기술로 고신뢰도와 높은 효율의 GKP 상태 생성을 목표로 하고 있다.
5. 기타 구현 기술(Erasure와 Autonomous)
실제 환경에서 오류가 발생하면, 큐비트의 상태는 논리 공간에 남아 있지 않고 바깥으로 빠져나갈 수 있다. 예를 들어, 큐비트의 기저 상태가 아닌 에너지 준위로 이동할 수 있으며, 더 확장된 힐버트 공간으로도 침투할 수 있다. 또는 아예 물리 큐비트 자체가 사라지기도 한다. 이렇게 큐비트 상태가 논리 공간 바깥으로 빠져나가는 것을 누출(leakage) 오류라고 한다. 그 결과로 정정이 불가능한 오류가 발생하거나, 논리 오류가 증폭되기도 한다. 따라서 결함허용 양자컴퓨팅 구현을 위해서는 누출 오류에 대응하는 억제 기술의 개발이 필요하다.
누출이 발생한 큐비트의 위치와 상태를 알 수 있는 특수한 상황은 오히려 오류정정에 유리하게 작용할 수 있다. 이를 삭제(erasure) 오류라고 한다. 예를 들어, 광자 플랫폼에서 가장 큰 오류 발생 요인인 광자 손실은 탐지가 가능한 삭제 오류다. 삭제 오류가 자연적으로 발생하지 않는 다른 물리계의 플랫폼에서도 최근 삭제 오류를 인위적으로 구현하고 활용하기 위한 연구가 진행 중이다.
신드롬 측정과 디코딩을 통한 오류정정 과정없이, 큐비트와 환경의 상호작용으로 큐비트의 오류가 수정되는 자동(autonomous) 오류정정 기법도 최근 주목받고 있다. 자세한 내용은 네 번째 원고인 ‘양자 자동오류정정의 물리적 이해’에서 다룬다. 결함허용 아키텍처의 오버헤드를 줄이는 부속 기술로 활용될 수 있다.
맺음말
양자컴퓨팅 연구개발은 이제 양자오류정정과 결함허용 양자컴퓨팅 구현을 직접 겨냥하고 있다. 하지만 이제 (2024년 기준) 겨우 메모리 역할을 하는 논리 큐비트 한 개에서 결함허용 수준에 근접했을 뿐이다. 따라서 쓸모 있는 연산이 가능한 결함허용 양자컴퓨팅이라는 목표를 달성하려면 앞으로 얼마큼의 노력과 시간이 들지 상상하기 어렵다. 사실 그 목표에 도달할 수 있을지도 장담하기 어렵다. 하지만 양자의 발견, 조작과 응용으로 이어지는 발전의 역사가 불가능해 보이는 것에 대한 도전의 결실이었음을 상기하면, 조금 느긋한 마음이 되어 미래를 낙관해 볼 수도 있다. 훗날 사람들이 기대하는 양자컴퓨터가 결국 나오지 않더라도, 양자에 대한 이해는 노력의 시간만큼 깊어졌을 테고 양자 기술은 발전했을 테니까 말이다. 그때쯤 우리는 지금은 상상하지 못하는 또 다른 무언가를 발견하고 발명하고 있을지도 모른다.
- 각주
- 1)P. W. Shor, Scheme for reducing decoherence in quantum computer memory, Phys. Rev. A 52, R2493 (1995).
- 2)A. Steane, Multiple-Particle Interference and Quantum Error Correction, Proc. R. Soc. Lond. A 452, 2551 (1996).
- 3)A. Kitaev, Fault-tolerant quantum computation by anyons. arXiv:quant-ph/9707021.
- 4)Google Quantum AI, Suppressing quantum errors by scaling a surface code logical qubit, Nature 614, 676 (2023).
- 5)Google Quantum AI, Quantum error correction below the surface code threshold, arXiv:2408.13687.
- 6)W. Wootters and W. Zurek, A Single Quantum Cannot be Cloned, Nature 299, 802 (1982).
- 7)D. A. Lidar et al., Decoherence-Free Subspaces for Quantum Computation, Phys. Rev. Lett. 81, 2594 (1998).
- 8)L. Viola et al., Dynamical Decoupling of Open Quantum Systems, Phys. Rev. Lett. 82, 2417 (1999).
- 9)J. J. Wallman and J. Emerson, Noise tailoring for scalable quantum computation via randomized compiling, Phys. Rev. A 94, 052325 (2016).
- 10)Z. Cai et al., Quantum error mitigation, Rev. Mod. Phys. 95, 045005 (2023).
- 11)W, J. Huggins et al., Virtual Distillation for Quantum Error Mitigation, Phys. Rev. X 11, 041036 (2021)
- 12)Y. Kim et al., Evidence for the utility of quantum computing before fault tolerance, Nature 618, 500 (2023).
- 13)C. Oh et al., Classical algorithm for simulating experimental Gaussian boson sampling, Nature Physics 20, 1461 (2024)
- 14)D. S. França and R. García-Patrón, Limitations of optimization algorithms on noisy quantum devices, Nature Physics 17, 1221 (2021).
- 15)Y. Quek et al., Exponentially tighter bounds on limitations of quantum error mitigation, Nature Physics (2024). https://doi.org/10.1038/s41567-024-02536-7.
- 16)J. P. B. Ataides et al. ,The XZZX surface code, Nature Commun. 12, 2172 (2021).
- 17)N. P. Breuckmann and J. N. Eberhardt, Quantum Low-Density Parity-Check Codes, PRX Quantum 2, 040101 (2021).
- 18)L. Z. Cohen et al., Low-overhead fault-tolerant quantum computing using long-range connectivity, Science Advances 8, eabn1717 (2022).
- 19)Q. Xu et al., Constant-overhead fault-tolerant quantum computation with reconfigurable atom arrays, Nature Physics 20, 1084 (2024).
- 20)S. Bravyi et al., High-threshold and low-overhead fault-tolerant quantum memory, Nature 627, 778 (2024).
- 21)Google Quantum AI, Exponential suppression of bit or phase errors with cyclic error correction, Nature 595, 383 (2021).
- 22)S. Krinner, et al., Realizing repeated quantum error correction in a distance-three surface code, Nature 605, 669 (2022)
- 23)V. V. Sivak et al., Real-time quantum error correction beyond break-even, Nature 616, 50 (2023).
- 24)D. Bluvstein et al., Logical quantum processor based on reconfigurable atom arrays, Nature 626, 58 (2024).
- 25)C. Ryan-Anderson et al., Realization of Real-Time Fault- Tolerant Quantum Error Correction, Phys. Rev. X 11, 041058 (2021).
- 26)M P. da Silva, Demonstration of logical qubits and repeated error correction with better-than-physical error rates, arXiv: 2404.02280.
- 27)Y. Wang et al., Fault-tolerant one-bit addition with the smallest interesting color code, Science Advances 10, 29 (2024)
- 28)S. Bartolucci et al., Fusion-based quantum computation, Nature Commun. 14, 912 (2023).
- 29)S. Konno et al., Propagating Gottesman-Kitaev-Preskill states encoded in an optical oscillator, Science 383, 6680 (2024).