Skip to content
制作実績一覧
AI / 機械学習Research

朝霧 — 医療画像向け連合学習基盤

Asagiri — Federated Learning for Medical Imaging

医療画像 (胸部 X 線・皮膚鏡画像) をデータセンターに集約せず、各拠点のローカル GPU で学習させるための連合学習基盤。Flower.ai をオーケストレータに、Opacus による DP-SGD とセキュア集約で差分プライバシーを確保する内部 R&D プロトタイプ。外部医療機関との契約は未締結で、公開データセットのみを用いた検証。

2026 R&D (内部プロトタイプ) 2026-04
#federated-learning#privacy#medical-ai#R&D

ライブデモ

実際のアプリケーション画面のプレビュー

DEMO
app.federated.jp/dashboard
Participating sites
4 / 4
all online
Global round
7 / 8
FedAvg + SecAgg
Global accuracy
91.2 %
+19.6 since r1
DP budget ε
4.2 left
δ = 1e-5

Federation topology

no raw data leaves site
AggregatorSecAgg · TEESite A24,830 recacc 91.2%Site B18,640 recacc 89.7%Site C31,205 recacc 93.4%Site D11,980 recacc 87.6%encrypted gradients ↑ · global weights ↓

Secure aggregation

Participants online8 / 8

threshold-k = 6 · shamir 2-of-3

Privacy budget remaining
ε = 4.2budget 8

Gaussian mechanism, σ = 1.1, clipping C = 1.0

Training rounds

70%80%90%100%r1r2r3r4r5r6r7r8
global accuracyround 7 · model 42 MB · Δ +1.1pp

Per-site accuracy

Site A — cardiology91.2%

24,830 samples · local-only validation

Site B — oncology89.7%

18,640 samples · local-only validation

Site C — imaging93.4%

31,205 samples · local-only validation

Site D — pediatrics87.6%

11,980 samples · local-only validation

課題

医療画像は個人情報保護法および改正次世代医療基盤法の制約が強く、画像そのものを集約するアプローチは研究段階でも現実的でない。単純な FedAvg では non-IID な施設間分布でモデルが発散しやすく、勾配からの再構成攻撃 (DLG) に対する耐性も不十分。

ソリューション

Flower.ai の Strategy API を拡張し FedProx + FedBN を組み合わせた施設ドリフト耐性戦略を実装。クライアント側で Opacus による DP-SGD を強制し、サーバ側では加法的秘密分散によるセキュア集約を挟む二重防御構成を採用。すべて公開データセット (NIH ChestX-ray14, ISIC 2020) を複数クライアントに分割する形でシミュレーション。

成果

  • NIH ChestX-ray14 の 4クライアント分割で集約 AUC 0.847 を達成
  • DP-SGD (ε=8, δ=1e-5) 適用時の精度低下を 2.1pt に抑制
  • DLG 攻撃再構成の SSIM を 0.62 → 0.08 に低減 (セキュア集約時)
  • 50ラウンド学習を単一 RTX 4090 sim で 3時間以内に完走
Key Metrics

Measured Impact

集約 AUC

0.847

NIH sim

DP 精度低下

-2.1pt

ε=8

DLG SSIM

0.08

secure agg

50ラウンド時間

3h

RTX 4090

Features

What it does

学習

FedProx+FedBN

施設間ドリフトを抑えつつ BN 統計をローカル保持。

動的クライアント選択

ラウンドごとに利用可能クライアントを選抜。

プライバシー

DP-SGD

Opacus で勾配ノイズとクリッピングを強制。

セキュア集約

加法的秘密分散でサーバに個別勾配を露出させない。

監査

プライバシー予算

RDP アカウンタで ε 消費をラウンドごとに記録。

攻撃ハーネス

DLG/MI 攻撃を再現し耐性を数値化。

Architecture

System Layers

Layered architecture showing components, responsibilities, and data flow.

L1

Layer

オーケストレーション

Flower.ai サーバを拡張し FedProx+FedBN 戦略とラウンドごとの監査ログを管理。

Flower ServerStrategy RegistryRound Scheduler
L2

Layer

クライアント

各シミュレーションクライアントで DP-SGD を実行。ノイズ量は ε/δ 目標から自動算出。

PyTorch TrainerOpacus EngineLocal DataLoader
L3

Layer

プライバシー層

加法的秘密分散と RDP アカウンタで ε 消費を追跡し、予算超過前に学習停止。

Secure AggregationGradient ClipperPrivacy Accountant
L4

Layer

観測・評価

ラウンドごとの AUC / ε / 攻撃再構成品質を可視化する内部ダッシュボード。

PrometheusGrafanaDLG Attack Harness
Development Process

How we built it

Step 1

データセット分割設計

NIH ChestX-ray14 / ISIC 2020 を non-IID に分割する複数パターンを用意。

Deliverables

  • 分割スクリプト
  • 統計レポート
  • ベースライン CNN
Step 2

Flower 戦略拡張

FedProx+FedBN を Strategy として実装し、収束曲線を記録。

Deliverables

  • Strategy 実装
  • ユニットテスト
  • 収束ログ
Step 3

プライバシー機構

Opacus と秘密分散を組み合わせ、RDP アカウンタで ε を追跡。

Deliverables

  • DP-SGD 設定
  • セキュア集約
  • プライバシー監査
Step 4

攻撃耐性評価

DLG と membership inference を実行し、防御有無の差分を計測。

Deliverables

  • 攻撃ハーネス
  • 耐性レポート
  • Grafana ダッシュボード
Roadmap

Delivery Timeline

  • Phase 0Done2026-04-24

    脅威モデル策定

    DLG / membership inference / poisoning の3軸で脅威を整理し対策を設計。

  • Phase 1Done2026-04-25

    FedProx+FedBN 実装

    non-IID 分割に対する収束性を内部シミュレーションで確認。

  • Phase 2Planned2026-05

    セキュア集約統合

    加法的秘密分散プロトコルをサーバに組み込み DLG 耐性を評価。

  • Phase 3Planned2026-07

    医療機関パイロット打診

    公開データセット検証結果をもとに共同研究を打診 (未契約)。

Team

Who built it

1engineer

Roles

  • ML リサーチエンジニア
技術スタック

Tools & Platforms

Backend

PythonFastAPI

Data

PostgreSQL

Infrastructure

Docker ComposePrometheusGrafana

Other

PyTorchFlower.aiOpacusPySyftgRPCCUDAMONAIMinIO
Build with KGA

同様のプロジェクトをお考えですか?

お客様のビジネスに最適なソリューションをご提案いたします。

プロジェクトを相談する