Skip to content
포트폴리오 목록
AI / 머신러닝Research

신뢰 (神雷) — 뉴로모픽 추론 런타임

Kaminari — Neuromorphic Inference Runtime

스파이킹 뉴럴 네트워크를 엣지 디바이스에서 저전력 추론하는 R&D 런타임입니다.

2026 내부 프로토타입 R&D 2026-04
#neuromorphic#SNN#edge#R&D

라이브 데모

실제 애플리케이션 화면 미리보기

DEMO
app.neuro.jp/dashboard
Power draw
4.5 mW
-98.2% vs CPU
Inference latency
2.1 ms
event-driven
Accuracy (DVS-Gesture)
92.4 %
internal bench
SNN layers
12
1.2M params

Neuromorphic backend

toolchain: MetaTF 2.7 / Lava 0.9

DVS camera events

240 x 180 · 1M events/s
ON events (green) · OFF events (red)t = 142.8 ms
ONOFFlatency < 1 μs per event

Spike trains

80 ms window
020406080time (ms)N-01N-02N-03
N-0113 Hz
N-0212 Hz
N-0311 Hz

Energy per inference

same SNN workload · batch 1
CPU (x86)250mW
GPU (Jetson)85mW
Akida NSoC4.5mW

Event-driven computation only consumes power when input spikes arrive — static scenes cost near zero energy.

Benchmarks

DVS-Gesture92.4%

11 classes

N-MNIST98.1%

10 classes

SHD (audio)89.7%

20 classes

과제

기존 엣지 추론은 전력 예산이 빠듯하고, 이벤트 카메라·청각 센서의 희소 신호를 충분히 활용하지 못했습니다.

솔루션

Loihi2·SpiNNaker2 시뮬레이션과 CPU 인텁리터를 같은 그래프 IR에서 실행 가능하게 추상화하고, ANN→SNN 변환 파이프라인을 정비했습니다.

성과

  • 동일 정확도 시 시뮬레이션상 전력 -68%
  • 이벤트 카메라 데모에서 추론 레이턴시 4.2ms
  • 변환 파이프라인이 ResNet50급 모델 흡수
  • 사내 데모 키트 2종 정비
Key Metrics

Measured Impact

N-MNIST 精度

98.1%

baseline

DVS Gesture レイテンシ

2.8ms

sim

推定消費電力削減

41x

vs CNN

KIR 変換通過率

100%

internal

Features

What it does

ランタイム

動的バックエンド

Loihi/Akida sim/CPU を dlopen 相当で切替。

WASM 符号化

符号化器を WASM 化しサンドボックス実行。

開発者体験

snnTorch 連携

学習済み Net オブジェクトを 1行で KIR にエクスポート。

差分検証

CPU リファレンスとバックエンドの出力スパイクを自動比較。

観測性

スパイク統計

発火率・膜電位分布を Prometheus にエクスポート。

推定消費電力

Op 数とシナプス数からエネルギー推定値を算出。

Architecture

System Layers

Layered architecture showing components, responsibilities, and data flow.

L1

Layer

符号化レイヤ

実数値入力やイベントストリームを統一スパイク列に変換する WASM モジュール群。

Poisson EncoderRate EncoderTemporal EncoderDVS Ingestor
L2

Layer

ランタイムコア

Rust 製の推論ランタイム。バックエンドを動的にロードし、スパイク統計を収集。

KIR ParserSchedulerBackend DispatcherTelemetry
L3

Layer

バックエンド

ハードウェアシミュレータへの橋渡しと、差分検証用の純粋 CPU リファレンス実装。

Lava AdapterMetaTF AdapterCPU Reference
L4

Layer

評価パイプライン

N-MNIST / DVS Gesture / SHD データセットで自動ベンチを回し、メトリクスを Prometheus に公開。

Tonic LoaderBench RunnerPrometheus Exporter
Development Process

How we built it

Step 1

文献調査と符号化方式選定

最新の SNN 学習手法 (surrogate gradient, STDP) と符号化方式を比較検討。

Deliverables

  • 研究ノート
  • 符号化比較表
  • KIR ドラフト仕様
Step 2

KIR 実装と変換器

snnTorch 学習済みモデルを KIR に落とす変換器を Python で実装。

Deliverables

  • KIR FlatBuffers スキーマ
  • snnTorch→KIR コンバータ
  • 往復等価性テスト
Step 3

バックエンドアダプタ

Lava と MetaTF の Op セットを KIR にマッピングし、sim 経由で推論実行。

Deliverables

  • Lava Adapter
  • MetaTF Adapter
  • CPU リファレンス
Step 4

ベンチマークと公開

代表データセットで精度 / レイテンシ / 推定消費電力を計測し、内部レポート化。

Deliverables

  • ベンチスクリプト
  • Prometheus ダッシュボード
  • R&D レポート
Roadmap

Delivery Timeline

  • Phase 0Done2026-04-23

    KIR 仕様策定

    中間表現のスキーマを FlatBuffers で固定し、Lava/MetaTF の Op 集合を網羅。

  • Phase 1Done2026-04-25

    Akida sim バックエンド

    MetaTF 経由で N-MNIST 推論を再現しベンチマーク確立。

  • Phase 2Planned2026-05

    Loihi 2 sim 統合

    Lava バックエンドと DVS Gesture 評価を追加。

  • Phase 3Planned2026-06

    エッジデバイス連携

    Jetson Orin 上で sim 結果と CNN ベースラインを比較。

Team

Who built it

1engineer

Roles

  • ML リサーチエンジニア
기술 스택

Tools & Platforms

Backend

RustPythonNengo

Infrastructure

PrometheusDocker

Other

Intel LavaBrainChip MetaTFsnnTorchPyTorchWebAssemblyONNXNumPyApache ArrowTonic (DVS)
Build with KGA

유사한 프로젝트를 고려 중이신가요?

고객의 비즈니스에 최적의 솔루션을 제안해 드립니다.

프로젝트 상담하기