QSIM-YAMATO — GPU-Accelerated Quantum Circuit Simulator
QSIM-YAMATO — GPU-Accelerated Quantum Circuit Simulator
An internal R&D prototype of a GPU-accelerated quantum circuit simulator built on NVIDIA cuQuantum (cuStateVec / cuTensorNet). Used to evaluate variational quantum algorithms (VQE / QAOA) at ≤32 qubits via classical simulation for NISQ-era design exploration. This is classical simulation — not real quantum hardware.
Live Demo
Preview the actual application interface
古典シミュレーション (Classical simulation) · 量子優位性の主張なし · NVIDIA cuQuantum SDK + Qiskit Aer 準拠
GPU 80GB VRAM
RTX 4090 · FP32
Trotter step 対応
完全シード固定
バックエンド選択
回路構造に応じた最適エンジン
状態ベクトル振幅 |⟨x|ψ⟩|²
上位16基底状態のみ表示 · 全2^6=64状態のサンプリング
Bloch 球
Challenge
State-vector simulation memory scales as 2^n, so single-node RAM caps practical circuits around 28 qubits. Existing Python frameworks (Qiskit Aer / Cirq) also expose gate-application overhead and host-device transfer costs when switching to GPU backends, while tensor-network contraction strategy still relied on manual choices.
Solution
A hybrid backend dispatches between cuStateVec (state vector ≤30 qubits) and cuTensorNet (sparse circuits >30 qubits). Qiskit 2.x / Cirq IR is lowered through OpenQASM 3, and contraction paths are auto-selected via opt_einsum + cuTensorNet. VQE classical optimizers (SciPy L-BFGS-B and Optuna CMA-ES) are pluggable.
Results
- 26-qubit random circuits: 14–22× faster state-vector updates vs. Qiskit Aer CPU on A100 80GB (internal benchmark, classical simulation only)
- VQE convergence on H2 / LiH cut evaluation count by ~35% with CMA-ES (in simulation)
- Shallow 40-qubit QAOA expectation values estimated via cuTensorNet auto-contraction (classical approximation, not hardware-equivalent)
- Full experiment metadata — circuits, seeds, backend — logged to MLflow for reproducibility
Measured Impact
対象 qubit 上限 (state vector)
32 qubit
対象 qubit 上限 (tensor network)
~40 qubit (疎結合)
対象ハードウェア
古典 GPU (A100 80GB)
実機実行
未対応 (Phase 4 計画)
What it does
シミュレーション
状態ベクトル / テンソルネットワーク切替
回路深さと qubit 数から自動で cuStateVec / cuTensorNet を選択し、メモリ超過を回避する。
ノイズチャネル (開発中)
デポラライズ・位相反転・振幅減衰を密度行列モードで適用できる設計を進めている。
アルゴリズム
VQE / QAOA テンプレート
小分子ハミルトニアンと Max-Cut を題材に、古典オプティマイザをプラガブルに切替可能。
等価性テスト
IR 変換後の回路と元回路の出力分布を統計的に比較し、バックエンド間の整合性を保証する。
System Layers
Layered architecture showing components, responsibilities, and data flow.
Layer
Frontend IR
利用者が記述する量子回路を共通 IR に正規化し、ゲートセットとトポロジ制約を明示化する層。
Layer
Simulation Backend
状態ベクトル / テンソルネットワーク / CPU 参照の三系統で古典シミュレーションを実行する層。実機ではない。
Layer
Experiment Tracking
回路・パラメータ・シード・ハードウェア構成を含む実験メタデータを永続化し再現性を担保する層。
How we built it
文献・ライブラリ調査
cuQuantum / Qiskit Aer / Pennylane-Lightning の性能特性を比較し、対象問題クラス別の適用範囲を整理する。
Deliverables
- 調査メモ
- ベンチ計画書
- 対象問題リスト
IR 変換層の実装
Qiskit / Cirq 回路を OpenQASM 3 を経由して統一 IR に変換し、バックエンド切替時の等価性テストを整備する。
Deliverables
- 変換ライブラリ
- 等価性テスト
- CI パイプライン
GPU カーネル統合
cuStateVec / cuTensorNet を薄い Python ラッパから呼び出し、メモリ転送と縮約パス探索のプロファイルを取る。
Deliverables
- ベンチスクリプト
- プロファイル結果
- 最適化メモ
実験再現性の整備
MLflow によるメタデータ管理、Docker イメージ固定、CUDA / ドライババージョン記録を標準化する。
Deliverables
- MLflow スキーマ
- Dockerfile
- 再現手順書
Delivery Timeline
- Phase 1In Progress2026-04
バックエンド抽象化
Qiskit / Cirq IR から OpenQASM 3 を経由した統一実行レイヤを構築し、CPU / cuStateVec / cuTensorNet を切替可能にする。
- Phase 2Planned2026-09
VQE / QAOA ベンチ
小分子ハミルトニアンと Max-Cut を対象に古典シミュレーション精度と GPU スケーリングを計測する。
- Phase 3Planned2027-03
ノイズモデル統合
デポラライズ / 振幅減衰ノイズチャネルを cuStateVec 密度行列モードに組み込み、NISQ 実機挙動に近い評価を行う。
- Phase 4Planned2027-10
実機ブリッジ検証
IBM Quantum Runtime / Amazon Braket への同一回路投入パイプラインを構築し、シミュレーション結果と実機結果の乖離を定量化する。
Who built it
Roles
- 量子アルゴリズム研究 (兼任)
- GPU / HPC エンジニア
Tools & Platforms
Backend
Infrastructure
Other
Considering a similar project?
We will propose the best solution for your business needs.
Discuss Your Project