次世代を担うとされる量子コンピュータですが、まだ技術的に未熟な部分も多く本当の意味での実用化までは長い時間が必要とされています。もし、フルスペックの量子コンピュータが実現すれば、性能が爆発的に向上し、今までできなかったような複雑な計算や時間がかかっていた作業を短時間で行うことが可能になるでしょう。
しかし、量子コンピュータの鍵となる量子の性質については、まだ未解明な部分も多く、現在わかっていることはごく一部にすぎません。それでも、現在に至るまでの地道な研究から不可思議な量子の振る舞いについて徐々に明らかになっています。
今回は、量子コンピュータの基礎となる量子の振る舞いについて触れるとともに、量子コンピュータの歴史を紐解いていきましょう。
【関連記事】
実用化は2030年?量子コンピュータの可能性と今後の見通しを紹介 ~第2回 量子コンピュータの可能性~
実用化は2030年?量子コンピュータの可能性と今後の見通しを紹介 ~第3回 量子コンピュータの課題~
量子コンピュータとは
量子コンピュータは、新しい技術を利用した次世代コンピュータの一つとして考えられています。その技術的な考え方として、量子力学は欠かすことができません。量子力学と古典コンピュータとの違いから量子コンピュータの概要を紹介します。
量子コンピュータの根底にある「量子力学」
量子力学は、現代物理学の基礎となる理論で、主に分子や原子、それらを構成する素粒子などといった肉眼では見えないほど小さな物理現象を読み解く力学です。現代の様々な科学技術である半導体やレーザー技術などに活用されており、電子工学や超伝導の基礎科学としても重要な役割を果たしています。量子力学という考え方自体は1900年ごろから提唱されていたものの、1925年にヴェルナー・ハイゼンベルクによって量子力学の総論がまとめられたことが、現在に続く量子力学の始まりだと言えるでしょう。
従来の「古典コンピュータ」との違い
古典コンピュータと呼ばれる従来のコンピュータは、0か1からなる2進法の世界でしたが、量子コンピュータでは、量子の重ね合わせ状態を利用して1つの量子ビット(量子コンピュータで使用される最小の情報単位)で、0と1を同時に表すことが可能です。さらに重なり状態をコントロールすることで、1つの量子ビットが表せる情報量が格段に上がります。素となる1量子ビット当たりの情報量が飛躍的に増えるため、量子ビットの制御方法が確立されれば、コンピュータの性能が著しく向上すると期待されているのです。
量子のふるまいを利用したコンピュータ
量子コンピュータを理解するためには、量子の重ね合わせやもつれといった、量子の不可思議な振る舞いについて知らなければなりません。近年は研究が進み、量子の重ね合わせやもつれの実証も進んでいます。
量子の「重ね合わせ」
量子の重ね合わせを証明した有名な実験として「二重スリットの実験」があります。板に細長い穴を2つ並べて空け、そこに電子をぶつけ、電子がどのような動きをするかを観察しました。一般的に考えれば、電子はどちらかの穴を通りその先にある壁の右側か左側にぶつかるはずです。しかし結果はどちらでもなく、実験を続けると着弾地は縞状に現れたのです。この現象は穴が1つの時には起こらず、穴が2つの時にだけ発生します。
そして、この実験における結論は「電子は両方の穴を通った」ということです。まるでSF小説のような話しですが、電子は「波」のような状態で両方の穴を潜り抜け、壁にぶつかった時に「粒」になって現れたと考えられています。この状態の重なり具合が量子コンピュータの胆と言えるでしょう。
量子の「もつれ」
量子のもつれとは2つの量子が強い相互関係にある状態を指します。スピンや運動量などの状態を共有し、その相互関係はどれほど距離があっても崩れることがなく、物理学の権威であるアルバート・アインシュタインが「不気味な遠隔作用」と呼んだほどです。
2019年に、量子が「もつれ」を起こしている状態の映像がスコットランドにあるグラスゴー大学の物理学者らによって発表され、その同期性が視覚的に確認されています。このもつれの関係を利用し、もつれ関係にある量子を観測することで、処理結果を導き出せるのです。
量子の不思議なふるまいを利用した新世代のコンピュータ
前の章でも軽く触れましたが、量子コンピュータは量子の重なり合いを利用することで、素となる1量子ビットの情報量を増やし、処理速度を向上させることが目的です。量子コンピュータは、NOT回路やAND回路などといった従来の論理ゲートは使えません。そのため、英国の物理学者、デイヴィッド・ドイッチュ博士が量子コンピュータの原理として提唱した、量子版のより複雑な論理ゲートを用いて、量子ビットが持つ波の重ねあわせ具合を変える手法が主流となっています。
しかし、量子ビットは不安定で壊れやすく、思うように数が増やせません。世界の問題を解決するために必要とされる量子ビット数は数百万個とも言われているため、いかに量子ビットを安定させ増やすか、より良い方式を構築するかが量子コンピュータの大きな課題です。
量子コンピュータの歴史
量子コンピュータが一般化するのはまだ先のことですが、日々改善が進められています。現在に至るまでの、開発の歴史を紐解いていきましょう。
量子コンピュータの概念が誕生
量子コンピュータの可能性については多くの技術者が論じていましたが、量子自体が不確定性を持つため実用化は不可能だと考えられていました。しかし、1980年ポール・ペニオフによって、量子コンピュータが理論的に実現可能なことが初めて証明されたことが、現在の量子コンピュータ研究を後押ししたといっても過言ではありません。量子ビットを制御するための量子ゲートや量子アニーリングなどの方式も生まれ、量子コンピュータの進歩は確実に進んでいます。
2011年、D-Wave社が商用量子コンピュータを発表
カナダのベンチャー企業であるD-Wave社が開発した世界初の商用量子コンピュータ「D-Wave One」は、量子コンピュータを一躍有名にしました。このD-Wave Oneは、量子アニーリング方式を採用し、真偽のほどは不明なものの、なんと128量子ビットの搭載に成功したとされています。
2017年、IBMが16量子ビットのプロセッサを発表
IBMは2017年に16量子ビット搭載のプロセッサ「IBM Q システム」を公開し、商用向けの量子コンピュータを開発するためのロードマップを策定しています。これは、その当時一般向けに公開されている量子コンピュータの中で最も高性能なものでした。
【参考】最先端の量子コンピュータ「IBM Q システム」が、従来のコンピューターの限界を超えた計算能力で新たな時代を切り拓く
2019年、Googleの量子コンピュータが「量子超越性」を証明
Googleは2019年に54量子ビットを搭載する新量子プロセッサー「Sycamore(シカモア)」を打ち出し、世界最高のスーパーコンピュータでも1万年かかるとされる計算を200秒で解いたと発表しています。これによって、量子コンピュータが持つ処理能力の優位性が証明されたのです。
量子に込められた限りない可能性!
量子という存在はまだ未解明な部分が多いものの、その性質を利用する方法が確立されつつあります。しかし、量子コンピュータとして本格的な実用化に至るには、量子ビットの量産や安定化、エラー修正や新しい制御技術の開発など、多くの課題が山積みです。日々、多くの技術者が研究や試作を通じて改良を試みており、Googleが開発している「誤り訂正が可能な量子コンピュータ」は2030年あたりに公開される予定です。
とはいえ現在の技術革新は目覚ましく、特定の分野においてはもっと早い段階での実用化も期待されています。量子の0から1を表すとされる、その不可思議な性質を利用した「量子コンピュータ」は、無限の可能性を秘めた存在だと言えるでしょう。