量子コンピュータとはなにかわかりやすく解説!仕組みも紹介

量子コンピュータとはなにかわかりやすく解説!仕組みも紹介

※ 本コンテンツにはプロモーション(PR)が含まれています。また、詳しい最新情報については公式サイトをご確認ください。

その可能性が語られはじめて30年以上たち、いまだに「実現可能か不可能か」というレベルの議論が続けられている量子コンピュータ

人工知能(AI)や第四次産業革命など、デジタル技術に関する話題が盛り上がるとともに、一般のニュースでも耳にするようになりました。
でも、技術にくわしくない人にとっては

「量子コンピュータってなに?」
「なんか、すごいことは分かるけど……」
という印象ですよね。
この記事では話題の「量子コンピュータ」について、わかりやすく解説します。

コエテコが選ぶ!AI・データサイエンスを学べるスクール [PR]

  • データラーニングスクール プロによる手厚い転職サポートあり。現役データサイエンティストのメンタリング&コミュニティ永久参加権も!

  • Aidemy Premium(アイデミー) 会員数日本最大級AI学習プラットフォーム!初心者でも始められるPython特化型&E資格対策も可能。

  • キカガク 今話題のAI・データサイエンスを学んでDX人材を目指す!業界大手dodaと提携した充実の転職支援。

量子コンピュータはGoogle 対 IBM の戦い!?

2019年10月、Google社は量子プロセッサを使い、世界最速のスーパーコンピュータでも1万年かかる処理を200秒で処理したと発表しました。

何年にもわたり議論が続いていた「量子コンピュータは従来のコンピュータよりすぐれた処理能力を発揮する」という「量子超越性」が証明されたと主張しています。

これに対して、独自に量子コンピュータを開発しているもう一方の巨人、IBM社は「Googleの主張には大きな欠陥がある」と反論し、Googleの処理した問題は既存のコンピュータでも1万年かかるものではないと述べました。

量子コンピュータとは?どんな理論を背景としている?

名だたる会社がしのぎを削る「量子コンピュータ」とは、一体どのような理論を背景に生まれたものなのでしょうか?

コンピュータはどのようなしくみで動いている?

「ビット」という単位を聞いたことがあるでしょうか。
「ビット」とは、スイッチのオンオフによって0か1を示すコンピュータの最低単位です。

1バイト(Byte)=8ビットで、オンオフを8回繰り返すことにより=28 = 256通りの組み合わせが可能になります。(ちなみに、1バイト=半角アルファベット1文字分の情報量にあたります。)
ところで、この「ビット」はもともと何なのでしょう。

コンピュータののなかの集積回路は「半導体」の集まりからできています。
一つ一つの半導体がオン/オフすることをビットと呼ぶのです。

コンピュータは、半導体=ビットが集まったものを読み込んで計算処理をしています。
この原理は、自宅や学校のパソコンでも、タブレット端末でも、スマホでも、「スーパーコンピュータ京」でもなんら変わりありません。
この半導体=ビットの数を増やすことで、コンピュータは高速化・高機能化してきたのです。

とはいえ、1ビット=1半導体である限り、実現可能な速度にも記憶容量にも物理的な限界があります。
この壁(物理的な限界)を超える方法はないか?

その答えになる(かもしれない)技術として注目されているのが、量子コンピュータというわけです。

量子コンピュータと古典コンピュータの違い

コンピュータは、ビット=半導体の0・1の情報を組み合わせることで動いていると説明しましたが、この処理方法を用いたコンピュータを「古典コンピュータ」と呼びます。
今日様々な場面で利用されている従来型のコンピュータは、ほぼすべてが古典コンピュータといっても過言ではありません。私が普段使っているパソコンも、古典コンピュータの一種です。

対して「量子コンピュータ」は、半導体ではなく「量子」と呼ばれる原子の構成材料を用いて処理するコンピュータのことを指します。
量子は半導体とは比べ物にならないほど小さいうえ、0・1の2種類以外にもずっと多様な状態を表すことができる物質。この特性により、古典コンピュータを大きく上回る性能を実現できるとして、現在注目を集めているのです。

古典コンピュータと量子コンピュータは、そもそも情報を処理する頭脳が全く異なるということですね。

次項からは、量子コンピュータが「量子」という物質を使ってどのように動くのか、その仕組みについて探っていきます。

量子コンピュータの原理

量子コンピュータは、1ビット=半導体のオン/オフで0か1を示す というこれまでのコンピュータ(古典コンピュータ)と違い、「量子ビット」(キュービットとも言います)によって計算を行います。
ちょっと難しい話になりますが、順序立てて説明します。

まず、量子とは?—電子のスピンをコンピュータに生かす!

話は突然、「宇宙は何でできているか?」という話になります。
ご存じの通り、宇宙のすべては原子からできています。

そして、すべての原子は同じ「材料」でできています。その材料こそ「量子」です。
原子は、原子核をつくる陽子と中性子、原子の周りをぐるぐる回る電子によって構成されています。この電子の数によって、水素やヘリウム、リチウム……といった様々な元素ができるのですね。

原子をつくる材料のことを「素粒子」または「量子」と呼びます。
そして量子のうち、電子常に回転(スピン)しているといわれています。

量子コンピュータは、この回転(スピン)を計算に生かすことができないか?というアイデアから生まれたものです。

半導体から量子ビットへ!何ができる?

ここで、現在のコンピュータに使われている「ビット」に戻ります。
ビットは、半導体のオン/オフによって0と1を示す仕組みでしたね。
ちょうどコインの表裏のように考えると分かりやすいでしょう。表なら1、裏なら0というわけです。

これに対して量子ビットは、コインが回転(スピン)している状態。0でもあり、1でもある状態といえます。
たくさんの量子ビット=「0でもあり1でもある」ものが重ね合わされていくイメージと考えばいいでしょうか。

過去のコンピュータでは1ビットごとに0と1というシンプルな情報しか送れませんでしたが、量子ビットを使ったコンピュータ(=量子コンピュータ)なら、1量子ビットごとに比較にならないほど多くの情報を送ることができます。

「量子コンピュータなら、これまでのコンピュータよりはるかに速く、大容量の計算ができるはずだ!」
これが量子コンピュータの基本的な考え方です。

 量子コンピュータの種類 

量子コンピュータは、処理の要である「量子」をどれぐらい活用できているかによって、主に3種類に分類されています。一言に「量子コンピュータ」といってもいくつかの種類があるということを、ここで理解しておきましょう。

万能量子コンピュータ

量子コンピュータの中でも、量子ビット数に制限がなく、どんな処理(量子計算)でもそつなくこなせるものを「万能量子コンピュータ」と呼びます。理論的に、どんな量子の状態からでも希望する量子の状態に変換・処理することができるため「万能」と冠されています。

しかし、やはり量子ビットが増えすぎてくるとノイズ(誤処理)が発生しやすくなるという懸念も。万能量子コンピュータは「いかにエラー耐性持たせるか」という課題について、開発・研究が進められている分野です。

まだまだ精度は不十分なところがあるものの、ある程度のエラーは訂正する能力を持ち合わせていることから、万能量子コンピュータは「エラー耐性コンピュータ」とも呼ばれています。

非万能量子コンピュータ

万能量子コンピュータほどではないものの、有限ながら量子ビットを扱うことができ、従来の古典コンピュータ以上の処理性能を発揮できるとされている量子コンピュータを「非万能量子コンピュータ」と言います。少ない量子ビットしか扱っていない関係上、万能量子コンピュータほどエラー耐性を持たせなくてもノイズが生じにくいのが特徴です。

一方で、処理できる計算には限界があるため「活用場面を見つけるのが難しい」「別途アルゴリズムを探らなければいけない」といった課題もあります。

ちなみに、エラー耐性が低く、扱える量子ビットが数十~数百程度と少ない量子コンピュータのことを、巷では「NISQ(Noisy Intermediate-Scale Quantum device)」と呼んでいますが、これも非万能量子コンピュータの一種です。

計算機上で自動でエラー訂正を行わせるのは、技術的にまだまだ難しい状況。今後もしばらくは非万能量子コンピュータ(≒NISQ)をメインに、研究・開発が進められていくでしょう。

非古典コンピュータ

コンピュータへの量子の活用がそこまで進んでおらず、まだまだ開発段階、あるいはほとんど古典コンピュータと処理性能が変わらないような量子コンピュータのことを「非古典コンピュータ」と言います。
多数の量子ビットを用いた高度な量子計算はできなくとも、先述したような量子力学特有の物理状態「重ね合わせ」などを少しでも処理に取り入れることができていれば、広義的にはもう古典コンピュータではない=非古典コンピュータだ、という風に解釈されているようです。

非古典コンピュータは、より上位の「非万能量子コンピュータ」「万能量子コンピュータ」を目指す前段階ということになります。

量子コンピュータの計算方式  

量子コンピュータが量子を使って処理・計算する仕組みには「量子ゲート方式」と「量子アニーリング方式」の主に2種類があります。それぞれ詳しく見ていきましょう。

量子ゲート方式

従来の古典コンピュータで用いていた計算回路(論理回路)の代わりに、量子用の素子で組んだ量子回路を用いて計算する」というやり方が「量子ゲート方式」です。

古典コンピュータはビット=半導体の状態が0か1しかなかったのに対し、量子コンピュータの量子ビットの状態は実に多様。そのためより多くのデータを扱える一方で、量子ビットを操作したときにノイズが発生しやすく、エラーが乗りやすいのが課題とされています。
先述した量子コンピュータの種類で考えると、量子ゲート方式を用いた量子コンピュータは「非万能量子コンピュータ」ということになりますね。

量子ゲート方式の中にも、用いる量子ビットによって「超電導方式」「イオントラップ方式」」「光量子方式」「シリコン方式」「トポロジカル方式」などが提唱されていますが、より一般的なのは「超電導方式」。GoogleやIBM、Intelといった大企業が実機を公開するほど研究が進んでいるほか、日本の理化学研究所でも、超電導方式を用いた量子コンピュータの試作機が間もなく稼働開始するとの情報も出ています。

量子アニーリング方式

量子アニーリング方式「組合せ最適化問題」を解くために特化した計算方式として、1998年に東京工業大学特任教授の西森秀稔氏らによって提唱されたものです。

最適化問題とは、与えられた条件の下で目的関数を最大もしくは最小化するような変数の値を求める問題のことを言います。身近な例で示すと「500円というお小遣いの中で、より多くのお菓子を買うには何を選んだらいいか?」「セールスマン最短で営業回りを終わらせるためには、どの経路で回ったらいいか?」といった問題。
量子アニーリング方式の量子コンピュータは、日常生活やビジネスシーンへの活用に向いています

量子ゲート方式と違い用途が絞られているため、実現が比較的容易なのも特徴。2011年時点で既に、カナダの「D-Wave Systems社」によって開発された量子アニーリングマシンが市販されています。

量子コンピュータの課題

そんな量子コンピュータですが、まだまだ課題は山積みです。一体どのような議論があるのでしょうか。

そもそも、量子コンピュータは可能なのか?

量子コンピュータの歴史は、1980年アメリカの物理学者Paul Benioffが「量子の世界ではエネルギーを消費しないで計算が行える」という研究を発表したことにさかのぼります。

イスラエル生まれのイギリス人David Deutschは、1985年に「量子計算模型」と言える量子チューリングマシンを、1989年に量子回路を考案しました。

しかし、30年以上過ぎた現在でもなお「量子コンピュータは可能かどうか」という議論に決着はついていません。

Googleのように「量子コンピュータを開発した」という人や企業はつぎつぎと現れますが、必ず「それは量子コンピュータと呼ぶにふさわしいか(量子コンピュータと認めていいのか?)」の議論が起こります。

なぜ、このような議論が起こるのでしょうか?
それは「量子コンピュータが可能になる」という考え方そのものが理論物理学から生まれたからです。

理論物理学と量子コンピュータ

理論物理学とは、かんたんに言うと「過去の物理学の遺産を突き詰めていくと、こういう風に発展していく『はずだ!』」という学問です。
アインシュタインが1907年に発表したE=mc²という有名な式があります。

この説が出てくるまで、現在の原子力発電所のような方法で巨大なエネルギーが生み出せるとは誰も考えませんでした。
アインシュタインの式を発展させたことによって、原子力という新たなエネルギーが生まれたわけです。

「原子力が人間を幸せにするか?」という善悪の判断はさておき、理論物理学によって新しい技術が誕生したのは事実です。

量子コンピュータもまた「できるはずだ」という議論がはじめにあり、いままさに「できるかどうか」世界中の科学者が悪戦苦闘している真っ最中といえるでしょう。

量子コンピュータと疑似科学

「できるかどうかわからない」技術には、疑似科学(科学的かどうか、まだ証明されていない主張)がつきものです。
有名なのは「常温核融合」と「高温超伝導」でしょうか。

これまでの核融合は、原子炉の中で超高温状態で行われていました。これを室温でできるようにするのが「常温核融合」で、今の原子力発電所よりもはるかにコンパクトな設備でエネルギーが生み出せると言われています。

また、「高温超伝導」は、絶対零度(-273℃)近くでないと起きないと言われていた超伝導(無抵抗で電気が伝わる)を高温状態でできるようにするものです。
いずれも、世界中の科学者が努力を重ねている途中の技術ですが、その一方で「私は常温核融合を実現した」と主張する人は世界中にいます。

残念なことに、その一部はウソの医療グッズや健康食品になってしまっています。
夢の技術は、詐欺師の餌食にもなりやすい。

量子コンピュータもまた、そのようなリスクのなかにあると言えるでしょう。

量子コンピュータでできること

Google社、は今後も量子コンピュータの実用化に向けて研究を続けると発表しています。

IBM社はじめ世界のコンピュータメーカーにとっても、量子コンピュータは偉大なゴールになるでしょう。

おそらくは数十年後になるでしょうが、量子コンピュータが実現すると可能になりそうなテーマを上げます。

素数の謎を解明する

素数は「1と、その数以外で割り切れない数字」をいいます。素数を書き出すと、2、3、5、7、11……と、一見法則がないように並んでいきます。
有名な数学者ユークリッドは「最大の素数はなく、無限の素数が存在する」ことを証明しました。
以来、人類がさわることのできる最大の素数を探す努力が重ねられてきました。

現在までに見つかった最大の素数は 2*82589933  − 1(2018年12月現在)です。さらに人類はもっと大きな素数をさがしつづけています。

この計算を従来のスーパーコンピュータでやろうとすると、それぞれの数字を一つずつ割り算していくことになり、莫大な時間がかかっていました。
量子コンピュータが実現すれば、処理速度、容量、また、アルゴリズム(手順)の開発により、飛躍的にスピードアップするといわれています。

暗号を解く

実は、世の中の暗号には素数が使われています。
そのため暗号を解読するにも、すべての計算を順番に行っていく……という方法しかありませんでした。

「0でもあり1でもある」量子ビットを利用すれば、プロセスははるかに短縮され、高速で結果を出せるという説があります。

宇宙の謎を解き明かす

ビッグバンからの数十億年、広大な宇宙は多くの謎に満ちていています。
惑星間・恒星感の重力を計算するだけでも、現在最高のスーパーコンピュータでも及ばない複雑な処理が必要となります。

量子コンピュータが実用化する日が来たら、宇宙の謎も一つずつ解き明かされていくのかもしれません。

機械学習への利用

コンピュータの進化によって、機械学習や人工知能(AI)といった技術が本格的に使われるようになってきました。機械学習は、大量のデータと情報処理を必要とします。そのため、量子コンピュータによって取り扱えるデータの量と学習の回数が増えれば、これまで解決できなかった問題を解くための鍵を得ることができるでしょう。

量子コンピュータはその性質上、確率論的に答えが導き出されます。そのため、厳密に計算を行いたい場合は古典的なコンピュータの方が向いているとされています。しかし機械学習などで扱う分野は厳密に計算を行いたい場合が少なく、より効率的に大量のデータを処理することに重きを置いているため、量子コンピュータが向いている分野だと言えるでしょう。

量子コンピュータによるAIへの本格的な活用シーン

先にも解説したとおり、昨今注目を集めているAI(人工知能)・機械学習といったシーンにおいて、量子コンピュータはまさに熱い視線を浴びている最中にいます。

国内外の研究機関・研究者が集う、東京大学の素粒子物理国際研究センター(ICEPP)においても、すでに「量子人工知能(AI)」実現に向けた研究が進められています。既存のAIに、圧倒的な処理能力を備えた量子コンピュータを組み合わせることで「AIの可能性を飛躍的に広げていける」と考えているようです。当面は、量子AIの元(学習モデル)である「量子機械学習」の確立が課題となっているとのこと。

量子コンピュータとAIが相互に影響・補完しあえば、これまで解決できなかった種々の課題も瞬く間に解決できるようになり、技術革新も急加速していくことでしょう。
参考:AIが学べるプログラミングスクール

企業の量子コンピュータへの取り組み

実現が夢のようにも思える量子コンピュータですが、研究・開発はもちろん、実はすでに実用化・商用化まで進んでいる企業も一定数存在しているのです。

量子コンピュータ開発に積極的な世界の企業と、その具体的な製品についていくつかご紹介します。

  • IBM…IBM Q System One
    2019年に導入された最初の商用量子コンピュータ。IBMは東京大学とパートナーシップを結んでおり、2021年には日本でも稼働を開始している。
  • Google…Sycamore(シカモア)
    2019年に開発された、54の量子ビットを持つ量子コンピュータ。審議は定かではないが、古典コンピュータで解決困難な計算を可能にする「量子超越性」を達成したとも発表されている。
  • Microsoft…Azure Quantum
    量子アルゴリズム設計用の独自言語「Q#」により開発されたクラウド型の量子コンピューティングシステム。量子ハードウェアをシミュレータ上で実行できる etc... 

いずれもエラー耐性の低い「非万能量子コンピュータ(≒NISQ)」ではあるものの、量子コンピュータが当たり前に使われる世の中になるのもそう遠くないことがお分かりいただけるかと思います。

日本においても、先述したように理化学研究所が国内初の量子コンピュータの稼働を開始したり、デンソー・リクルートといった企業が事業に量子アニーリングマシンを活用していたりと、積極的に利用・開発が進められている最中。

その優れた性能を求めて、今後より多くの企業が量子コンピュータに目をつけていくことはほぼ間違いないでしょう。 

量子コンピュータとは?のまとめ

科学者が懸命に研究をつづける量子コンピュータは、科学にはまだロマンがあふれていると教えてくれます。
原子よりも小さい量子の働きにより、人類の謎が解き明かされていく……そう考えると、ワクワクせずにはいられません。

量子コンピュータが人類にどんな新しい知恵をもたらしてくれるか、期待をもって見守っていきたいものですね。

コエテコが選ぶ!AI・データサイエンスを学べるスクール [PR]

  • データラーニングスクール プロによる手厚い転職サポートあり。現役データサイエンティストのメンタリング&コミュニティ永久参加権も!

  • Aidemy Premium(アイデミー) 会員数日本最大級AI学習プラットフォーム!初心者でも始められるPython特化型&E資格対策も可能。

  • キカガク 今話題のAI・データサイエンスを学んでDX人材を目指す!業界大手dodaと提携した充実の転職支援。

WRITER

この記事を書いた人

RECOMMEND

この記事を読んだ方へおすすめ

プログラミングに向いているのかについてのよくある質問