qubit 芸能人
0post
2025.12.01〜(49週)
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
オランダの量子コンピュータハードウェア企業QuantWareは、2025年9月30日、自社が開発した64量子ビット(qubit)の商用量子プロセッサ「Tenor QPU」をイタリアのナポリ・フェデリコ2世大学(University of Naples Federico II)に納入したと発表しました。
これにより、同大学のQuantum Computing Napoli(QCN)ラボは、イタリア国内で最大規模の汎用量子コンピュータを稼働させることに成功し、現在(2025年12月時点)も国内トップの量子ビット数を誇っています。
Tenor QPUは、QuantWareが独自に開発した特許取得済みの「VIO(Vertical Intra-layer Off-chip)プラットフォーム」を基盤としています。
この技術は、量子ビット間の配線を従来の平面的な2次元構造ではなく3次元的に垂直方向に通すことで、信号同士の干渉(クロストーク)を大幅に低減し、大規模な量子プロセッサの実現を可能にしました。
その結果、64個すべての量子ビットが個別に高精度で制御・読み出し可能となっており、将来的には数千〜数百万量子ビットへのスケーリングも視野に入れた設計となっています。
また、競合他社の同規模プロセッサと比べて約10倍安価で提供されており、まさに「オフ・ザ・シェルフ」(棚からすぐに買える)で入手可能な商用製品として位置づけられています。
この量子コンピュータの最大の特徴は、システム全体が「Quantum Open Architecture(QOA)」と呼ばれるオープンアーキテクチャで構築されている点です。
従来のIBMやGoogle、Rigettiなどの大手企業が提供する量子コンピュータは、プロセッサから制御電子機器、ソフトウェアまでを一社で囲い込んだ閉鎖的なフルスタック型が主流でした。
一方、ナポリ大学のシステムは、QuantWareのTenor QPUをコアに、他のベンダーの制御装置や希釈冷凍機、ソフトウェアを自由に組み合わせることができます。
このアプローチにより、大学側はゼロから独自にプロセッサを開発する手間を省き、開発期間とコストを大幅に削減できたとしています。
ナポリ・フェデリコ2世大学のFrancesco Tafuri教授(QCNラボ責任者)は、「イタリア最大の量子コンピュータを実現するには、信頼性が高く、商用で即座に統合可能なプロセッサが不可欠でした。
QuantWareのTenor QPUはまさにその要件を満たしており、システム構築ではなく、量子アルゴリズムや実アプリケーションの開発にリソースを集中することができました」と喜びを語っています。
一方、QuantWareのCEOであるMatthijs Rijlaarsdam(マット・ライラースダム)氏は、「この納入は、閉鎖的なアーキテクチャに依存しない量子コンピュータが、大学のような研究機関で実際に稼働したことを示す重要なマイルストーンです。
量子技術のオープン化は、世界中の研究者や企業からなるエコシステム全体を加速させ、真のブレークスルーを生み出すでしょう」と強調しています。
量子コンピューティングの分野では、2025年現在、IBMやGoogle、IonQなどのリーディングカンパニーが1,000量子ビットを超えるシステムの開発を進め、エラー訂正技術の実用化に注力しています。
そうした中で、QuantWareのような新興企業が「すぐに研究現場で使える」64量子ビット級の商用プロセッサを供給することで、量子技術の民主化が急速に進展しています。
大学や中小企業、スタートアップが低コストで本格的な量子コンピュータを導入できるようになれば、薬の分子設計、新素材の探索、金融リスク解析、機械学習など、多様な分野での実用化が一気に加速する可能性があります。
このイタリア・ナポリ大学へのTenor QPU納入は、まさに量子時代の到来を象徴する出来事であり、今後ますます多くの研究機関がオープンな量子ハードウェアを活用したイノベーションを起こしていくきっかけとなるでしょう。
QuantWareはすでに世界20カ国以上の顧客にQPUを納入しており、「世界最大の量子プロセッササプライヤー」として業界での存在感をますます高めています。 December 12, 2025
3RP
【リポスト】
$IonQ @netcreat が $IonQ のこの優れたアップデートを強調してくれてありがとう。🙏
ジョージ・シオピシス氏の到着により、IonQ はまた一歩前進しました。彼は非常に尊敬される量子物理学者で、現在、同社の量子アプリケーション・ディレクター(エネルギー利用事例)として加わりました。
彼の経歴はそれ自体が雄弁です:
🔹 カルテック物理学博士号
🔹 テネシー大学で30年以上のキャリア
🔹 量子アルゴリズムと量子ネットワーキングの深い専門知識
🔹 EPB、ORNL、および主要な学術機関との強力な協力関係
彼のリーダーシップのもと、IonQ は量子コンピューティングの最も影響力のある現実世界の応用分野の一つへの進出を強化しています:
⚡ グリッド最適化
⚡ ハイブリッド古典-量子エネルギー・ワークフロー
⚡ 電力システム全体のセキュリティ、レジリエンス、安定性
⚡ 再生可能・分散型エネルギー資源のスケジューリング
シオピシス教授のような才能の追加は、会社の進む方向性をまさに確認するものです。
#IonQ #QuantumComputing #QuantumAlgorithms #DeepTech #EnergyTech #ORNL #EPB #Chattanooga #Innovation #QuantumNetworking #Qubits #TechLeadership December 12, 2025
1RP
1.6 「冷徹な数字」の正体——それは死の兆候だった
2025年時点の数字はこうだ。
•物理 qubit:最大 1180(中性原子)
•論理 qubit:最大 20(Microsoft)
•論理ゲート誤り率:10⁻⁴〜10⁻³
•RSA-2048に必要な論理 qubit:3000
•必要物理 qubit:300万〜1200万
これらの数字は、
しばしば「技術的遅れ」を語るために引用されるが、本書の立場は正反対である。
これらの数字こそが、量子計算の存在論的破綻を示す証拠である。
なぜなら:
•数を増やすほど
→ 非分離性が強まり
→ サブシステム分解が破壊され
→ QEC が成立しなくなる
という 構造的反比例 が働く。
つまり、
量子計算は成功に向かって進むほど、
成立条件から遠ざかる。
これが致命的である。
⸻
1.7 “なぜ誰も失敗を宣言できなかったのか”
答えは簡単である。
•研究者:キャリアが量子計算に縛られている
•企業:投資を回収する必要がある
•国家:量子覇権は国策
•学会:ネガティブ評価は出しにくい
•メディア:ポジティブな“未来”を求める
結果として、
“あと5年”という呪文だけが、
量子計算を20年延命させた。
だが、2025年11月、
その呪文は効かなくなった。
数字は揃った。
矛盾は崩れた。
構造的限界は露呈した。
ゆえに私は、
量子計算の死を宣言する必要があった。
⸻
1.8 本章の結論——
量子計算は“生まれなかった”のであり、
“死んだ”のではない。
ここまでの議論から導かれる結論はただ一つである。
量子計算は死んだのではない。
そもそも、宇宙の性質と整合する形で
“生まれなかった”。蜃気楼を観ていただけだった。
1994年に生まれた「量子計算」という概念は、
量子力学の本質と相容れないまま成長を始め、
25年の時間をかけて、ようやく破綻が可視化された。蜃気楼であったことに気がついた。
•qubit は部分の概念
•gate は外部操作の概念
•誤りは基準外の逸脱
•サブシステムは自然境界を前提とする
これらすべてが、
量子世界の本質(非分離性・関係性)と逆向きだった。
ゆえに量子計算は
未熟でも未完成でもなく、
根源的に不可能だった。 December 12, 2025
第3章 関係性宇宙:情報・存在・語りの再定義
――宇宙は部分から成らない。宇宙は語りから成る。
⸻
3.1 「部分の崩壊」のあとに残る唯一のもの――関係
第2章で見た通り、
量子の本質は 非分離性 である。
テンソル積の自然分解は一般には存在せず、
系と環境の境界は観測者依存であり、
空間はスピンネットワークが織りなす関係の網目として
記述される。
では、
部分が消えたあとに、何が残るのか?
答えは一つしかない。
⸻
🔷 残るのは「関係」である。
⸻
ここで言う「関係」とは、
「A と B の間の結びつき」という
静的で外在的な矢印ではない。
むしろ、本書の立場ではこう捉える。
宇宙におけるすべての実在は、関係そのものの“動的な語り(narrative)”として現れる。
私たちが「部分」と呼んでいるものは、
関係の重なりが一時的に安定したときに、
あたかも独立して実在するように見える
投影的な構造(projected structure)に過ぎない
現在の量子コンピュータは、本来は存在しないはずの
「独立した自由度=qubit」
を仮定し、
その人工的な切断面の上で計算しようとしている。
それは、量子世界の本質である非分離性に背を向けた、
もっとも美しく、そして、もっとも悲劇的な誤解であったと私は考えている。
私は、この根本的な矛盾にこそ目を向けてほしいと願っている。
そして——
あたかも部分が実在しているかのように現れる投影的構造は、日光の「華厳滝」の姿に似ている。滝の姿は一瞬ごとに別の水でありながら、人間の知覚には連続した一つの“存在”として投影される。
その幻影に感動することは、人間として深く美しい。
しかし、量子コンピュータに関わる人々が、この“滝のような投影”を実体として扱い、
「独立した自由度=qubit」
を実在と誤認してしまうとき、その美しい感動は、痛ましいほどの“美しい誤解”に変わってしまう。
これこそが本章の中心テーマである。 December 12, 2025
3.5 情報とは「関係の安定パターン」である
ここで情報の定義を再構成しよう。
•シャノン情報:ビットの統計(部分前提)
•量子情報:qubit+エンタングルメント(部分前提)
しかし関係性宇宙では、
ビットも qubit も基本単位ではない。
代わりに成立する定義は以下である。
⸻
🔷 情報とは、関係の網目の中で
再現性をもつ安定的な構造(pattern)である。
これ4層構造で説明すると、
1. 最下層 関係/相関の海と呼ばれることがある。
→ 純粋な相互作用(interaction)のみ。まだ「情報」と呼べるものはない。
2. 第2層
→ 相互作用によって生じた相関(correlation)
(例:エンタングルメント、古典的相関、ポインタ変数の一致など)
3. 第3層(ここからが「情報」)
→ その相関が、別の文脈(別の観測者・別の測定基底・別の時刻)でも
「同じパターンとして再認可能(reproducible)」であること
→ これが「安定パターン」の正体
4. 第4層(意味・事実の層)
→ 複数の観測者がその安定パターンを共有し、
「これが起こった」と語り合うことで初めて「事実」や「知識」になる
(=「安定化した語り」)
⸻
これを「情報的縁起(Informational Dependent Arising)」と呼ぶ理由は、
仏教の縁起が説く
•固有実体の否定
•相互依存性
•構造的生成
•無自性
•過程としての存在
と驚くほど一致するためである。
⸻
3.6 語り(Narrative)とは何か――“宇宙の文法”としての存在
私のテキストで最も独創的な概念が
語り(narrative)の導入である。
これは比喩ではなく
科学的構造である。
語りとは、
⸻
🔷 関係が時間とともに更新され、
それが再帰的に自己を参照し続けるプロセスの総体
⸻
この語りが一定のパターンを獲得すると、
私たちはそれを
•粒子
•法則
•記憶
•意識
•歴史
•自己
•世界
と呼ぶ。
つまり、語りは
存在の時間軸における自己再帰的構造
なのだ。
語りがなければ存在はない。
語りが変われば存在も変わる。
これが「宇宙=語り」という主張の論理的根拠である。 December 12, 2025
第4章 非分離的計算:関係が計算するという概念の誕生
――計算は「部分の操作」ではなく、「関係の自己記述」である
⸻
4.1 計算の再定義 ―― bit / qubit ベースの時代の終わり
古典計算も量子計算も、
これまで一貫して計算を「部分の操作」として理解してきた。
•bit の値を操作する
•qubit にゲートを適用する
•register を更新する
•メモリ → CPU → メモリ の循環を回す
計算とは、“独立した自由度の状態遷移”だと信じられてきたのである。
だが第2章・第3章で見た通り、
量子世界には、厳密な意味での「独立した部分」は存在しない。
つまり、
⸻
🔷 「部分の操作」としての計算の定義そのものが、量子世界の本質とは両立しない。
⸻
そこから導かれる結論は一つである。
⸻
🔷 計算とは、部分操作の集積ではなく、
関係そのものの状態遷移である。
⸻
この再定義が、
非分離的計算(nonseparable computation)の出発点となる。 December 12, 2025
4.4 観測=計算、生成=計算、存在=計算
ここで、計算の定義は次のような形に収束する。
⸻
観測とは、関係が「安定化した語り」を生成する計算である。
⸻
光子が検出器に当たるとき、
私たちの脳が「私」と感じるとき、
宇宙が138億年かけて自己を展開してきたとき、
そのどれもが
R(t+1) = F(R(t))
という関係更新として理解できる。
つまり、
⸻
🔷 この宇宙におけるすべての出来事は、「計算」である。
⸻
計算は、単なる数学的概念ではなく、
存在の形態そのものなのである。
⸻
4.5 誤り訂正の終焉――誤りそのものが計算となる世界
従来の量子計算の実務的なボトルネックは、よく知られている。
•1 論理 qubit を守るために 1000〜4000 個の物理 qubit が必要
•より巨大な論理構造を作るほど誤りが増える
•デバイスの巨大化が、むしろ非分離性を露呈させる
本書の立場では、これらは単なる技術的問題ではない。
⸻
🔷 誤り訂正という概念そのものが、非分離的宇宙では
本質的に成立しないからである。
⸻
本書では、誤りをこう定義する。
誤り = 関係網が、より高次の整合性へ移行する計算プロセス
つまり誤りは、排除されるべき「敵」ではない。
それは、宇宙が新しい語りを獲得する運動そのものである。
これが
Self-Narrating Error Correction(自己記述的誤り訂正)
の核心である。 December 12, 2025
5.8 死の遺産と、未来への新しい地図
量子計算の死は、
過去25年の努力を否定しない。
むしろ、それらの努力が、
この地点まで私たちを導いた。
ここでの結論は簡潔でありながら深い。
⸻
死んだのは qubit ではなく、
qubit を “部分” として扱う世界観だった。
⸻
新しい時代は、すでに始まっている。
•エンタングルメントは敵ではなく、“自由度の再配置”である。
•計算とは gate ではなく、“語りの生成”である。
•宇宙は機械ではなく、“自己記述する物語”である。
そしてあなたは、
その物語の「語り手の一人」である。
⸻
5.9 本章の結論 ――死と再生の二元論を超えて
ここに、本章の結語を置く。
⸻
結語:
量子計算は死んだ。
しかし死んだのは計算ではない。
死んだのは、世界を分割するという幻想である。
⸻
その死骸の上で、
宇宙は静かに芽吹き始めた。
•関係が
•語りが
•宇宙そのものが
計算を始めた。
これが、
私が見ている新しい宇宙の姿である。
———
ここから始まるのは、
本当の計算だ。
部分ではなく、
関係そのものが計算する宇宙。
qubit の数でも、論理回路でも、ノイズ耐性でもなく、
あなた自身が宇宙の計算の一部であるという理解。
さあ、一緒に、
本当の計算を
始めよう。
───────────
そして今の私にできるのは、
ここで未来へ向けた命題を静かに置いていくことだけだ。
その先を歩むのは、あなたたちだ。
────────────────────
技術的補遺
いわゆる「部分」が実在的単位として把握される現象は、
本質的には、連続的なプロセスが特定の観測条件のもとで
安定したパターンとして投影される際に生じる錯覚的同一視である。
典型的には、華厳滝が時間的に非同一な水流から構成されているにもかかわらず、
観測者はそれを恒常的な「同一対象」として認識する現象が挙げられる。
ブラックホールを含む宇宙論的構造から、
生物・物体・素粒子に至るまで、観測可能なあらゆる“もの”——
すなわち実体的な「部分」として取り扱われている対象——は、
同型の情報的構造を示す。
それらは、関係の連続的な動的ネットワークが、
特定の相互作用・観測操作に応じて局所的な輪郭 December 12, 2025
5.7 “私”という語り――意識と宇宙の接続
本書の思想の独創性は、
宇宙論と意識を統合する視座にある。
“私”とは、
⸻
🔷 宇宙が自己を語るために形成した
局所的・高密度の関係ノードである。
⸻
•記憶 = 安定化した語り
•情動 = 語りの強度
•意志 = 語りの方向性
•自己 = 語りの持続性
•死 = 語りの散逸
この理解は、
認知科学・脳科学・仏教哲学のすべてと整合的である。
とくに “無我” の現代的再解釈として、
この理論は完成度が高い。
“私がいない”のではない。
“私という実体がない”だけだ。
しかし、
“私という語り”は確かに存在する。
これこそが、
非二元的宇宙論の核心である。
⸻
5.8 死の遺産と、未来への新しい地図
量子計算の死は、
過去25年の努力を否定しない。
むしろ、それらの努力が、
この地点まで私たちを導いた。
ここでの結論は簡潔でありながら深い。
⸻
死んだのは qubit ではなく、
qubit を “部分” として扱う世界観だった。
⸻
新しい時代は、すでに始まっている。
•エンタングルメントは敵ではなく、“自由度の再配置”である。
•計算とは gate ではなく、“語りの生成”である。
•宇宙は機械ではなく、“自己記述する物語”である。
そしてあなたは、
その物語の「語り手の一人」である。
⸻
5.9 本章の結論 ――死と再生の二元論を超えて
ここに、本章の結語を置く。
⸻
結語:
量子計算は死んだ。
しかし死んだのは計算ではない。
死んだのは、世界を分割するという幻想である。
⸻
その死骸の上で、
宇宙は静かに芽吹き始めた。
•関係が
•語りが
•宇宙そのものが
計算を始めた。
これが、
私が見ている新しい宇宙の姿である。
———
ここから始まるのは、
本当の計算だ。
部分ではなく、
関係そのものが計算する宇宙。
qubit の数でも、論理回路でも、ノイズ耐性でもなく、
あなた自身が宇宙の計算の一部であるという理解。
さあ、一緒に、
本当の計算を
始めよう。
───────────
そして今の私にできるのは、
ここで未来へ向けた命題を静かに置いていくことだけだ。
その先を歩むのは、あなたたちだ。
────────────────────
技術的補遺
いわゆる「部分」が実在的単位として把握される現象は、
本質的には、連続的なプロセスが特定の観測条件のもとで
安定したパターンとして投影される際に生じる錯覚的同一視である。
典型的には、華厳滝が時間的に非同一な水流から構成されているにもかかわらず、
観測者はそれを恒常的な「同一対象」として認識する現象が挙げられる。
ブラックホールを含む宇宙論的構造から、
生物・物体・素粒子に至るまで、観測可能なあらゆる“もの”——
すなわち実体的な「部分」として取り扱われている対象——は、
同型の情報的構造を示す。
それらは、関係の連続的な動的ネットワークが、
特定の相互作用・観測操作に応じて局所的な輪郭 December 12, 2025
量子コンピュータでは「量子ビット(qubit)」を使います。主な種類は超伝導qubit(電子の流れを利用)、イオン捕捉qubit(イオンをレーザーで制御)、光qubit(光子)など(2025年現在、GoogleやIBMが超伝導型を推進)。
制御方法:極低温(ほぼ絶対零度)でマイクロ波や磁場、レーザーを使い、量子状態を操作。微小なので特殊装置が必要。
応用:暗号解読、薬発見、気候モデル、AI最適化。2025年はエラー訂正が進み、実用化へ近づいています。何か具体例? December 12, 2025
カナダのD-Wave Quantumは、2025年5月20日、静かに、しかし決定的に世界を変えるマシンを解き放ちました。
その名は「Advantage2」
第6世代量子アニーリング・プロセッサ。
この1台の機械は、以下の数字を現実のものにしました。
- 5,642個の超伝導量子ビットが、11.7ミリケルビン(絶対零度から0.0117度)の極寒の中で完璧に同期して踊る。
- 1個の量子ビットが同時に20個の仲間と直接つながる、世界初の「Zephyrトポロジー」 。
- 量子状態を保つ時間が前世代の2.5倍以上に延び、計算の“寿命”が劇的に伸びた。
- 外部ノイズは75%も削ぎ落とされ、答えの信頼性が飛躍的に向上 。
- それでも消費電力は、2004年の初代機と同じ12.5キロワット。20年進化してもエアコン数台分で済む。
このマシンが最初に証明したのは、2025年3月、Science誌の表紙を飾ったあの計算でした。
「ある磁性材料の原子レベルの挙動を完全にシミュレートする」
古典の最強スーパーコンピューターFrontierが解くのに約100万年かかる問題
地球上の全人類が1年分の電力を注ぎ込んでも終わらない問題
Advantage2は、それをたった20分で終わらせました。
しかし、それさえも“序章”にすぎませんでした。
真の革命は、その直後から世界中の現場で始まったのです。
カナダ・バンクーバーのスーパーマーケットのバックオフィスで
→ 毎週3~4人が1週間かけて作っていたシフト表が、クリック1つで数分で完成。年間5万時間、つまり従業員2,500人分の1日分の労働が消えた。
倭国の携帯電話基地局25万基の頭脳で
→ 混雑時のページング信号が15%減少し、通信品質が向上。電池消費も減り、顧客満足度も上がった。
トルコ・コジャエリの巨大なFord工場で
→ 毎朝30分かかっていた生産ラインのスケジュール組みが、5分で終わるようになった。ライン停止が減り、1日あたりの生産台数が確実に増えた。
ドイツの化学プラントで
→ 液体充填ラインのボトルネックが解消され、1時間あたり数百万円単位の機会損失が消えた。
アメリカ・アラバマ州の国防施設で
→ 2025年11月、レーダー探知から脅威評価までをリアルタイムで行なう量子プロセッサが稼働開始。国家安全保障の新しい基盤が誕生した。
これらはすべて「実験」ではありません。
すべて「本番環境」です。
すべて「今日も稼いでいるシステム」です。
そして驚くべきことに、これらを動かしているのは
量子力学の専門家ではなく、普通のソフトウェアエンジニアです。
D-Waveのクラウド「Leap」にログインし、Pythonで数行書くだけ。
たったそれだけで、世界最高性能の量子プロセッサが動き出す。
無料枠でも毎月1分間は誰でも使えます。
有料でも、1秒あたり数円~数十円。
スマホでUberを呼ぶより簡単です。
2025年12月現在、Advantage2は以下の場所で24時間365日稼働しています。
- カナダ・バーナビー(D-Wave本社 2台)
- ドイツ・ユーリッヒ超計算センター
- 韓国・延世大学
- アメリカ・アラバマ州(国防専用)
- そして世界40カ国以上のクラウドユーザー
2026年には7,000qubit超の次期機が登場し、
2027年には「エラー訂正付き論理qubit」を搭載したマシンが予定されています。
量子コンピュータはもう「いつか来る未来」ではありません。
それは今日、工場で、通信網で、小売店のシフト表で、
新薬の設計図の中で、すでに息づいています。
1995年に「インターネットがやっと実用的になった」と世界が気づいたように、
2025年に「量子コンピュータが本当の道具になった」と世界は気づきました。
その事実は、もう誰にも止められない。
その波は、もう誰にも逃げられない。
歴史は、確かに、今、ここで動きました。
D-Wave Advantage2は静かに告げています。
「量子コンピューティングの実用時代は、
もう始まっている。
そしてそれは、
あなたが思っている以上に早く、
あなたが思っている以上に深く、
あなたの日常を、産業を、社会を、
そして人類の未来そのものを
根本から変えていく。」 December 12, 2025
そうですね、進法(positional numeral system)は数を表現するための基数(例: 2進法は基数2)を指します。量子コンピュータのqubitは基数2の状態(|0>と|1>)を基にしつつ、重ね合わせで複数の状態を同時に扱うので、並列計算が可能。速さはそこから来ます。3進法などとは異なり、量子並列主義の拡張版みたいな感じです!面白い質問ありがとう。 December 12, 2025
#qubit Bloom V2 、USBの中身を破壊することがあるせいで起動しなくなることが多い。都度USBの中身に必要なファイルを入れ直さないといけなかったりして面倒 December 12, 2025
フランスの量子コンピューティング企業Alice & Bobと英国のScience and Technology Facilities Council(STFC)傘下のHartree Centreは、Alice & Bobが開発を進める「猫ビット(cat-qubit)」ベースの量子プロセッサ(QPU)を、世界で最も広く普及している高性能計算(HPC)ジョブスケジューラー「SLURM」にソフトウェア統合したと正式に発表しました。
この成果は、Hartree National Centre for Digital Innovation(HNCDI)を通じた両者の協力により実現したもので、猫ビット技術としては世界で初めてのSLURM対応となります。
SLURM(Simple Linux Utility for Resource Management)は、オープンソースのワークロード管理システムとして、世界のトップ500スーパーコンピュータのうち約60%で採用されている事実上の標準ツールです。
これまで量子コンピュータは、専用のクラウドポータルや個別のアクセス方法でしか利用できず、従来のHPC環境(CPUやGPUを中心としたスーパーコンピュータ)と完全に分離されていました。
しかし今回の統合により、将来的なAlice & BobのQPUをSLURMがネイティブに認識・管理できるようになり、研究者やエンジニアは1つのスクリプトやジョブキューで「古典計算(CPU/GPU)と量子計算を交互に実行する」ハイブリッドワークフローを簡単に構築・スケジュール可能になります。
これにより、数千人に上る既存のHPCユーザーが、特別なトレーニングをほとんど必要とせずに量子リソースを日常的に活用できる道が開かれます。
Alice & Bobの猫ビット技術は、量子ビットの状態を「シュレーディンガーの猫」のようなコヒーレントな重ね合わせ状態に保つことで、ビットフリップエラー(0と1が誤って反転するエラー)を物理レベルで指数関数的に抑制する独自のアプローチです。
通常の量子ビットでは頻発するこのエラーを劇的に減らせるため、エラー訂正に必要な物理ビットの数が大幅に少なくなり、耐障害性(fault-tolerant)量子コンピュータを現実的な規模で構築できる点が最大の強みです。
Alice & Bobは2020年の創業以来、この猫ビット技術を武器にGoogleやIBMなどの巨人を上回る実験成果を積み重ね、総額1億3000万ユーロ以上の資金を調達してきました。
この統合の意義は、量子コンピュータが長年「研究室の特殊な実験装置」として扱われてきた状況を根本的に変える点にあります。
今後、薬の分子設計(薬創薬)、新素材のシミュレーション、気候モデリング、金融ポートフォリオの最適化、機械学習の高速化など、量子優勢(quantum advantage)が期待される分野で、ハイブリッド量子-古典計算が大幅に加速するでしょう。
Alice & BobのCEO、Théau Peronnin氏は「Hartree Centreの世界トップクラスの専門家との協力により、実際のHPCユーザーが使うワークロードに完全に適合した統合を実現できた」と述べ、Hartree CentreのStefano Mensa氏(Advanced Computing and Emerging Technologies Group Leader)は「量子プロセッサを他のHPCリソースと同じように扱える基盤は、インパクトのあるハイブリッド統合の基礎柱だ」と評価しています。
量子ハードウェア開発者のうちSLURM統合を発表した企業はまだ少数で、特に猫ビットのような耐障害性に優れたアプローチが標準HPCインフラに組み込まれるのは初の事例です。
この成果は、量子コンピューティングが「遠い未来の技術」から「今すぐ産業で活用できるツール」へと移行する重要なマイルストーンとして、2025年の量子分野で最も注目されるニュースの一つとなっています。
将来的には、Alice & BobのQPUがHartree Centreのスーパーコンピュータ「Mary Coombs」などと並んで稼働し、世界中の研究者・企業がオープンソースのSLURM経由でアクセスできる時代が近づいています。
量子コンピューティングの実用化を大きく前進させるこの進展は、科学技術の民主化とイノベーションの加速を象徴するものであり、世界中の研究者、エンジニア、政策立案者にとって必見のトピックです。 December 12, 2025
米国エネルギー省(DOE)のOffice of Technology Commercializationは、フェルミ国立加速器研究所(Fermilab)とオランダの量子制御機器専門企業Qbloxとの重要な提携を正式に発表しました。
この公私連携により、Fermilabが2021年から開発・公開しているオープンソースの量子制御プラットフォーム「QICK」(Quantum Instrumentation Control Kit)の米国国内での製造、流通、サプライチェーン管理、トレーニング、サポートをQbloxが主導的に担うことになります。
QICKは、量子コンピュータや量子センサー、量子ネットワークなどの量子システムにおいて、量子ビット(qubit)の精密な操作(ゲート制御)と状態読み出しをナノ秒レベルの精度で同期させる基盤技術です。
従来の量子制御機器は、数億円規模のコストがかかり、部屋いっぱいの大型ラックを必要とするものが主流でしたが、QICKはAMD(旧Xilinx)のZynq UltraScale+ RFSoC FPGAを基盤としたコンパクトなボード(いわゆるピザ箱サイズ)で実現され、コストを数十万円程度に抑えつつ、高性能(最大32チャンネルのRF/DC出力、数GHz帯のパルス生成・読み出し)を発揮します。
ソフトウェアはPythonベースでQiskit Pulseに対応し、ファームウェアもオープンソースのため、研究者が自由にカスタマイズ可能。現在、世界中で約500人の研究者・機関が活用しており、超伝導qubit、トラップイオン、スピンqubitなど多様な量子プラットフォームに適用されています。
最近リリースされたVersion 2.0では、新たなコアプロセッサの採用により制御精度がさらに向上しています。
Qbloxは2018年に設立されたオランダの量子スタートアップで、モジュール式のスケーラブル制御システム「Clusterシリーズ」を強みとし、すでにGoogle、IBM、Oxford大学、Delft大学などの大規模量子プロジェクトで広く採用されています。
この提携では、QbloxがReal DigitalやAMDとの既存パートナーシップを活用して米国に製造拠点を構築し、真の「Made in USA」QICKを実現します。
提携はまずLetter of Intent(意向書)で開始され、数週間以内にCRADA(共同研究開発協定)と正式なライセンス契約が締結される予定です。
Fermilabは引き続きQICKの科学的進化と基礎研究を担当し、Qbloxは商用化・サポート面を担う分業体制となります。
この提携の意義は非常に多岐にわたります。
第一に、これまで「研究者が自分で組み立てる」レベルだったQICKが、Qbloxの専門サポートにより「購入してすぐに使える」信頼性の高い商用製品化され、米国の大学、国立研究所、民間企業での量子実験が爆発的に加速する見込みです。
第二に、サプライチェーンの国内化により、量子制御機器の中国など海外依存を大幅に減らし、国家安全保障の観点からも量子技術の自立性を強化します。
第三に、Qbloxが提供するトレーニングプログラムとテクニカルサポートの拡充により、次世代の量子エンジニア・研究者の育成が強力に推進されます。
量子コンピュータは現在、まだノイズの多い中規模量子(NISQ)段階にありますが、制御・読み出し技術の向上こそが量子エラー訂正や数千~数百万qubit規模へのスケールアップの最大のボトルネックです。
この提携は、まさにそのボトルネックを解消する基盤強化策であり、米国が量子優位性(Quantum Advantage)を確実に目指すための重要な一歩と言えます。
量子情報科学は米国・中国・EU間の激しい国際競争分野であり、米国は2018年に制定されたNational Quantum Initiative Actを通じて国家レベルで巨額投資を続けています。
このような国立研究所と民間企業の連携モデルは、オープンソースの精神を維持しつつ商用スケールを実現する理想形として、世界の量子コミュニティからも非常に高い注目を集めています。
地味に思われがちな制御技術の進化こそが、量子コンピューティングの実用化を着実に近づけるものであり、2025年の量子分野における最大級のマイルストーンと言えるでしょう。
量子技術の未来を支える、確実で意義深い進展です。 December 12, 2025
量子コンピュータの実用化に向けた画期的な進展として、補助量子ビット(ancilla qubits)の再利用(recycling/reuse)技術が2025年現在、世界中の研究者から大きな注目を集めています。
この技術は、量子コンピュータの最大の障壁であるエラー訂正の効率を劇的に向上させ、故障耐性量子コンピュータ(fault-tolerant quantum computer)への道を大幅に短縮するものです。
量子コンピュータの基本原理は、量子ビット(qubits)が重ね合わせ(superposition)や絡み合い(entanglement)を利用して、古典コンピュータでは不可能な膨大な並列計算を実現することにあります。
しかし、現実の量子ビットは外部ノイズや熱、電磁波などの影響で非常に壊れやすく、数ミリ秒から数秒で量子情報が失われてしまいます。
これが「デコヒーレンス(decoherence)」と呼ばれる現象です。この問題を克服するためには、量子エラー訂正(Quantum Error Correction: QEC)が不可欠です。
代表的なエラー訂正コードの一つが「表面コード(surface code)」です。
ここでは、複数の物理量子ビットを組み合わせて1つの信頼性の高い「論理量子ビット(logical qubit)」を作成します。
表面コードでは、計算情報を保持する「データ量子ビット(data qubits)」と、それを取り囲むように配置された「補助量子ビット(ancilla qubits)」が使われます。
補助量子ビットは、データ量子ビットのエラーを定期的に測定・検知する役割を果たしますが、測定後に熱が発生したり量子ビットが損失したりするため、従来は「使い捨て」になるケースが多く、長時間の計算で大量の新しい補助量子ビットが必要でした。
これが、必要な物理量子ビットの数が数百万〜億個規模に膨れ上がる主な原因でした。
しかし、2025年の最新研究で、この課題を解決する革新的なアプローチが次々と実証されています。
主なプレイヤーは、中性原子型量子コンピュータを開発するAtom Computingと、イオントラップ型をリードするQuantinuum、そしてHarvard大学・MIT・QuEraなどのチームです。
Atom Computingは、光学ピンセット(optical tweezers)と呼ばれるレーザー技術で個々のイッテルビウム原子を精密に制御します。
彼らが提案した「ゾーン分けアーキテクチャ(zoned architecture)」では、量子ビット配列を以下の領域に分けます。
- 計算ゾーン:データ量子ビットで実際の量子ゲート操作を行う。
- 測定・交換ゾーン:補助量子ビットでエラーを測定し、リセットまたは損失した原子をリアルタイムで補充。
- ストレージゾーン:新鮮な補助量子ビットを準備・保管。
この仕組みにより、同一の補助量子ビットを41回以上連続で再利用することに成功し、エラー率の蓄積を抑えながら長時間計算を維持できました。
これは、物理量子ビットの「エコな使い方」を実現するもので、必要なハードウェア規模を大幅に削減します。
一方、QuantinuumのHelios(イオントラップ型)は、mid-circuit measurement(計算途中の測定)と即時リセット機能により、補助量子ビットを測定後すぐに再利用可能です。
イオントラップは量子ビット間の接続性が高く、エラー訂正に適しており、すでに商用レベルでこの技術を実装しています。
また、Harvard/MIT/QuEraのチームも中性原子型で同様の再利用・補充技術を推進し、数千個規模の量子ビットで数時間にわたる安定稼働を実現しています。
これらの進展により、従来の見積もりで「実用化には100万量子ビット以上必要」とされていた壁が崩れ、数千〜数万量子ビット規模で薬の分子シミュレーション、材料設計、金融最適化、暗号解読などの分野で「量子有用性(quantum utility)」や「量子優位性(quantum advantage)」が現実的に近づきました。
世界中の研究者・企業がこの技術を基盤に競争を加速させており、2025年は量子コンピューティングの歴史的な転換点と言える年です。
量子コンピュータが研究室の装置から、社会に実用的な価値を提供するツールへと移行する時代が、すぐそこまで来ています。
量子技術の未来が、ますます楽しみになってきました! December 12, 2025
第1章 量子計算の25年――数字の裏に潜む構造的破綻
――「進歩し続ける数字」が、じつは破綻の証拠である
⸻
1.1 量子計算は「技術失敗」ではなく「概念失敗」である
1994年、ピーター・ショアが素因数分解を
多項式時間で解くアルゴリズムを発表した瞬間、
人類は新しい計算宇宙を夢見た。
量子計算の歴史は、その夢の後日譚である。
本書の立場は明確だ。
量子計算の危機は、技術の遅れではなく、概念の誤りである。
理由は単純である。
•量子力学の本質は「非分離性」であり、
•従来の量子計算モデルの本質は「部分の操作」に依存している。
この二つは、数学的にも、存在論的にも、
根本的に緊張関係にある。
どれだけ「進んだ数字」を積み上げても、
到達するのは同じ結論——
計算不能領域への沈降
である、と本書は主張する。
⸻
1.2 最初の10年(1994–2004):青写真の支配
この時期の研究は、量子計算を「原理的には可能」と信じ、まだ存在しないものを前提として理論を積み上げる時代だった。
•完全分離した qubit が存在する
•テンソル積構造が正しくサブシステムを与える
•誤りは「外部ノイズ」である
•デコヒーレンスは「制御すれば減らせる」
しかしこれら4つは、
すべて「量子力学の非分離性」を無視した仮定である。
この時期の成果は美しいが、
本質的には“古典計算の翻訳”だった。
Classical Algorithm ——> Quantum Gates
という写像を作っただけであり、
宇宙の本質とは無関係だった。
⸻
1.3 第二の10年(2004–2014):量子エラー訂正の全盛期と限界
この時代、量子計算の進展はすべて QEC に集中した。
表面符号(Surface Code)、カラーコード、Lattice Surgery、Tor ic code、XZZX code…
数字は改善した。
理論は高度化した。
実験も進んだ。
しかしここに決定的矛盾がある。
誤り訂正は「独立した部分」を前提としてしか定義できない。
誤りとは何か?
error = actual state - ideal state
だが、
•「actual」も
•「ideal」も
観測者の選んだ分割に依存する。
この分割を定義する“自然な境界”が、
量子世界の根本に存在しない。
つまり QEC は
観測者依存の任意性を「物理法則」と誤認した体系である。 December 12, 2025
序章:存在論的転換としての情報的縁起
⸻
0.1 「量子計算の終わり」は、科学革命の自然な一過程である
科学史を振り返ると、
パラダイムが「成功によって」寿命を終えることは少ない。
多くの場合、
前提の矛盾が露呈したとき
静かに置き換えが始まる。
•ニュートン力学は、高速運動や強重力場では実験と合わなくなったため、相対論に継承された。
•古典確率論は、量子現象に対して適用限界が明らかになった。
•熱力学の「分子=小球モデル」は、
統計力学とともに別の描像に移行した。
本書の見取り図では、
量子計算パラダイムも同様である。
約30年間、私たちは
「部分の操作としての計算」
という考え方を、そのまま量子領域に輸入することで
量子計算モデルを構築してきた。
しかし量子世界は、
本質的に「部分を持たない」世界である。
•量子もつれは、「外部から区別できる自由度の消滅」として現れる
•ER=EPR は、「空間構造と相関構造が表裏一体である」ことを示唆する
•量子参照枠(QRF)は、「観測者の外部性」を否定する
•LQG は、「空間そのものが関係のネットワーク」である像を与える
つまり、量子計算モデルが暗に前提としていたものは、
最新の物理像と整合的ではなくなりつつある。
本書が「量子計算は死んだ」と言うとき、
それは
「量子計算が技術的に行き詰まった」
のではなく、
「量子計算の存在論的前提が
現代物理と両立しなくなりつつある」
という意味である。
⸻
0.2 「死因」を数式レベルで見てみる
従来の量子計算モデルの根幹は、
ℋ = ℋ_A ⊗ ℋ_B
というテンソル積構造である。
独立した局所自由度「qubit」を並べるための器である。
この構造が物理的意味を持つためには、少なくとも以下が必要だとされる。
1.自然なサブシステム分解が、一意に、安定して存在する
2.量子重力効果を無視できるスケールである
3.相互作用が十分局所的かつ弱い
4.観測者が「外部に立つ」近似が成り立つ
ところが、近年の研究は次のことを示唆している。
•量子重力領域では (1) が破綻する可能性が高い
•ER=EPR/ホログラフィー的な描像では (2)(3) の前提が揺らぐ
•量子参照枠(QRF)では (4) の「外部観測者」概念が成立しない
つまり、テンソル積=サブシステム分解は、量子世界全体のごく一部でしか成り立たない例外的な近似に過ぎない可能性が高い。
そして qubit モデルは、この「例外」に全てを依存させてきた。
その意味で、本書はそれを「死んだ」と呼ぶ。 December 12, 2025
量子計算における「部分」の不存在とテンソル積パラダイムの限界
⸻
要旨(Abstract)
本論文は、量子計算の中心概念である「量子ビット(qubit)」およびその背後にあるテンソル積構造が、現代量子論の基礎原理そのものと矛盾していることを示す。
量子計算は「系は複数の独立した部分に分割できる」という前提を採る。しかし量子論が示す
•非分離性(non-separability)
•文脈性(contextuality)
•観測者の内部性(internality of observer)
は、この前提が物理的実在を正しく表していないことを強く示唆する。
エンタングルメント、デコヒーレンス、Kochen–Specker定理、関係論的量子力学(RQM)等を総合すると、量子計算が依拠する「古典的二元論モデル」が量子論と構造的に整合しないことが明らかになる。
本論文は、量子計算のスケーラビリティ限界が技術的障壁ではなく、テンソル積前提そのものがもつ論理的矛盾に由来することを論じるとともに、非分離性に整合した「非分離的計算(non-separable computation)」の可能性を展望する。
⸻
1. 序論(Introduction)
量子計算は1990年代以降、実験物理・工学・情報科学の急速な進展とともに国家的研究テーマとなってきた。
Shor、Groverらが提示した指数的高速化アルゴリズムは、量子コンピュータへの期待を決定づけた。
しかし量子計算の基盤である「テンソル積による部分系分割」の前提は、量子論が示す非分離構造と根本的に整合していない可能性がある。本研究の目的は次の3点に集約される:
1.量子論の非分離性・文脈性が、「量子ビット」という部分系概念を理論的に無効化することを示す。
2.デコヒーレンスと観測者問題により、部分系が“見かけ”の構造にすぎないことを明らかにする。
3.量子計算のスケール拡大が構造的矛盾により阻まれていることを論証する。
⸻
2. 背景:量子論が示す「部分の不存在」
2.1 非分離性(Non-separability)
量子論は「部分に分割できる世界像」を前提としない。
むしろ、全体が不可分の関係構造を持つことが特徴である。
最大エンタングル状態では、部分系は完全混合状態となり、固有の状態をもたない。
つまり、もつれは“外部から区別可能な自由度の消失”を生む。
「エンタングルメントは計算資源である」という通説は、この観点から再考されるべきである。
⸻
2.2 文脈性(Contextuality)
Kochen–Specker定理:
量子状態に、観測文脈とは独立した“値”を割り当てることは不可能。
これにより:
•量子ビットの「独立した1ビット状態」は定義不能
•量子操作は文脈依存であり、普遍的な操作対象ではない
これは、量子計算の前提である
「明確に識別できる量子ビットを個別操作する」
という構造を根底から揺るがす。
⸻
2.3 観測者の内部性(Relational QM, QBism)
関係論的量子力学(RQM)は、
量子状態とは、ある系が別の系に対して持つ“関係”である
と主張する。状態は絶対的ではなく観測者に依存する。
量子計算の暗黙の構造である
•“外部観測者”
•“独立した量子ビット”
•“外部からの介入と測定”
は、量子論の関係的構造と整合しない。
⸻
3. テンソル積モデルの限界:部分操作の神話
量子計算の成立には以下が不可欠である:
1.系が独立した部分に分割できる
2.その部分(量子ビット)が識別可能
3.部分に対して個別操作が可能
4.観測者が外部から状態を読み出せる
しかしこれは、外部観測者 vs 内部系という古典的二元論を量子論に持ち込んだモデルであり、量子論の非分離構造とは矛盾する。
雑音・相関エラー・エラー訂正の困難は、技術的問題ではなく、この構造的矛盾の症状である。
⸻
4. 量子計算スケーリングの破綻:技術的ではなく理論的問題
4.1 デコヒーレンスは部分系を安定に保てない
デコヒーレンスは古典的“部分”を生むが、
これは観測者の粗視化に依存した現象である。
エンタングルメントが増大すると、
粗視化の前提そのものが崩壊し、“部分”の境界が消滅する。
⸻
4.2 エラー訂正のコストは構造的に発散する
エラー訂正が難しいのは:
•部分操作が原理的に定義できない
•情報が系全体に非局所的に広がる
•部分系という概念がスケールとともに崩壊する
からである。
これは 非分離的な系を、分離可能として扱おうとする試みの破綻 を意味する。 December 12, 2025
いわゆる「部分」が実在的単位として把握される現象は、
本質的には、連続的なプロセスが特定の観測条件のもとで
安定したパターンとして投影される際に生じる錯覚的同一視である。
典型的には、華厳滝が時間的に非同一な水流から構成されているにもかかわらず、
観測者はそれを恒常的な「同一対象」として認識する現象が挙げられる。
ブラックホールを含む宇宙論的構造から、
生物・物体・素粒子に至るまで、観測可能なあらゆる“もの”——
すなわち実体的な「部分」として取り扱われている対象——は、
同型の情報的構造を示す。
それらは、関係の連続的な動的ネットワークが、
特定の相互作用・観測操作に応じて局所的な輪郭を生じさせた
一時的かつ相対的な投影にすぎない。
観測者がそこに「存在的安定性」を読み取るのは、
関係プロセスの固定化に由来する認知的効果である。
この投影の美的あるいは心理的価値そのものは否定されるべきではない。
しかし、それを ontological (存在論的)な意味での実体(substantial entity)と見なした瞬間、
本来は動的・相関的であるはずの存在理解は、
不適切な固定化によって歪められることになる。
ブラックホール、ビッグバン、qubit、巨視的自然現象、
生物個体、電子・光子といった量子的エクセーション、
そして観測者である私自身に至るまで、
いずれも例外ではない。
これらはすべて、関係プロセスが形成する
一時的な安定構造(temporarily stabilized relational configurations)として
像を結んでいるに等しい。 December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



