Skip to content
Back to Portfolio
AI / Machine LearningResearch

Asagiri — Federated Learning for Medical Imaging

Asagiri — Federated Learning for Medical Imaging

A federated-learning framework for medical imaging (chest X-ray, dermoscopy) that trains on local GPUs at each site rather than centralizing data. Uses Flower.ai as orchestrator, Opacus for DP-SGD, and secure aggregation for differential privacy. Internal R&D prototype validated only on public datasets — no external medical-institution agreements are in place.

2026 R&D (internal prototype) 2026-04
#federated-learning#privacy#medical-ai#R&D

Live Demo

Preview the actual application interface

DEMO
app.federated.jp/dashboard
Participating sites
4 / 4
all online
Global round
7 / 8
FedAvg + SecAgg
Global accuracy
91.2 %
+19.6 since r1
DP budget ε
4.2 left
δ = 1e-5

Federation topology

no raw data leaves site
AggregatorSecAgg · TEESite A24,830 recacc 91.2%Site B18,640 recacc 89.7%Site C31,205 recacc 93.4%Site D11,980 recacc 87.6%encrypted gradients ↑ · global weights ↓

Secure aggregation

Participants online8 / 8

threshold-k = 6 · shamir 2-of-3

Privacy budget remaining
ε = 4.2budget 8

Gaussian mechanism, σ = 1.1, clipping C = 1.0

Training rounds

70%80%90%100%r1r2r3r4r5r6r7r8
global accuracyround 7 · model 42 MB · Δ +1.1pp

Per-site accuracy

Site A — cardiology91.2%

24,830 samples · local-only validation

Site B — oncology89.7%

18,640 samples · local-only validation

Site C — imaging93.4%

31,205 samples · local-only validation

Site D — pediatrics87.6%

11,980 samples · local-only validation

Challenge

Medical images face strong constraints under Japan's personal-information and amended Next-Generation Medical Infrastructure laws, making centralized aggregation impractical even for research. Plain FedAvg also diverges under non-IID inter-site distributions, and gradient-reconstruction attacks (DLG) threaten privacy without further hardening.

Solution

We extend Flower.ai's Strategy API with FedProx + FedBN to handle site drift. Clients enforce DP-SGD via Opacus, and the server applies additive secret-sharing secure aggregation — a two-layer defense. Everything is simulated on public datasets (NIH ChestX-ray14, ISIC 2020) split across multiple synthetic clients.

Results

  • Aggregated AUC of 0.847 on a 4-client NIH ChestX-ray14 split
  • DP-SGD (ε=8, δ=1e-5) limits accuracy drop to 2.1pt
  • Secure aggregation drops DLG reconstruction SSIM from 0.62 to 0.08
  • 50-round training completes inside 3 hours on a single RTX 4090 sim
Key Metrics

Measured Impact

集約 AUC

0.847

NIH sim

DP 精度低下

-2.1pt

ε=8

DLG SSIM

0.08

secure agg

50ラウンド時間

3h

RTX 4090

Features

What it does

学習

FedProx+FedBN

施設間ドリフトを抑えつつ BN 統計をローカル保持。

動的クライアント選択

ラウンドごとに利用可能クライアントを選抜。

プライバシー

DP-SGD

Opacus で勾配ノイズとクリッピングを強制。

セキュア集約

加法的秘密分散でサーバに個別勾配を露出させない。

監査

プライバシー予算

RDP アカウンタで ε 消費をラウンドごとに記録。

攻撃ハーネス

DLG/MI 攻撃を再現し耐性を数値化。

Architecture

System Layers

Layered architecture showing components, responsibilities, and data flow.

L1

Layer

オーケストレーション

Flower.ai サーバを拡張し FedProx+FedBN 戦略とラウンドごとの監査ログを管理。

Flower ServerStrategy RegistryRound Scheduler
L2

Layer

クライアント

各シミュレーションクライアントで DP-SGD を実行。ノイズ量は ε/δ 目標から自動算出。

PyTorch TrainerOpacus EngineLocal DataLoader
L3

Layer

プライバシー層

加法的秘密分散と RDP アカウンタで ε 消費を追跡し、予算超過前に学習停止。

Secure AggregationGradient ClipperPrivacy Accountant
L4

Layer

観測・評価

ラウンドごとの AUC / ε / 攻撃再構成品質を可視化する内部ダッシュボード。

PrometheusGrafanaDLG Attack Harness
Development Process

How we built it

Step 1

データセット分割設計

NIH ChestX-ray14 / ISIC 2020 を non-IID に分割する複数パターンを用意。

Deliverables

  • 分割スクリプト
  • 統計レポート
  • ベースライン CNN
Step 2

Flower 戦略拡張

FedProx+FedBN を Strategy として実装し、収束曲線を記録。

Deliverables

  • Strategy 実装
  • ユニットテスト
  • 収束ログ
Step 3

プライバシー機構

Opacus と秘密分散を組み合わせ、RDP アカウンタで ε を追跡。

Deliverables

  • DP-SGD 設定
  • セキュア集約
  • プライバシー監査
Step 4

攻撃耐性評価

DLG と membership inference を実行し、防御有無の差分を計測。

Deliverables

  • 攻撃ハーネス
  • 耐性レポート
  • Grafana ダッシュボード
Roadmap

Delivery Timeline

  • Phase 0Done2026-04-24

    脅威モデル策定

    DLG / membership inference / poisoning の3軸で脅威を整理し対策を設計。

  • Phase 1Done2026-04-25

    FedProx+FedBN 実装

    non-IID 分割に対する収束性を内部シミュレーションで確認。

  • Phase 2Planned2026-05

    セキュア集約統合

    加法的秘密分散プロトコルをサーバに組み込み DLG 耐性を評価。

  • Phase 3Planned2026-07

    医療機関パイロット打診

    公開データセット検証結果をもとに共同研究を打診 (未契約)。

Team

Who built it

1engineer

Roles

  • ML リサーチエンジニア
Tech Stack

Tools & Platforms

Backend

PythonFastAPI

Data

PostgreSQL

Infrastructure

Docker ComposePrometheusGrafana

Other

PyTorchFlower.aiOpacusPySyftgRPCCUDAMONAIMinIO
Build with KGA

Considering a similar project?

We will propose the best solution for your business needs.

Discuss Your Project