Skip to content
Danh sách dự án
R&D nội bộResearch

Asagiri — Học Liên Hợp cho Hình Ảnh Y Tế

Asagiri — Federated Learning for Medical Imaging

R&D nội bộ cho khung học liên hợp phù hợp với hình ảnh y tế.

2026 R&D nội bộ 6 tháng 2026-04
#federated-learning#privacy#medical-ai#R&D

Demo trực tiếp

Xem trước giao diện ứng dụng thực tế

DEMO
app.federated.jp/dashboard
Participating sites
4 / 4
all online
Global round
7 / 8
FedAvg + SecAgg
Global accuracy
91.2 %
+19.6 since r1
DP budget ε
4.2 left
δ = 1e-5

Federation topology

no raw data leaves site
AggregatorSecAgg · TEESite A24,830 recacc 91.2%Site B18,640 recacc 89.7%Site C31,205 recacc 93.4%Site D11,980 recacc 87.6%encrypted gradients ↑ · global weights ↓

Secure aggregation

Participants online8 / 8

threshold-k = 6 · shamir 2-of-3

Privacy budget remaining
ε = 4.2budget 8

Gaussian mechanism, σ = 1.1, clipping C = 1.0

Training rounds

70%80%90%100%r1r2r3r4r5r6r7r8
global accuracyround 7 · model 42 MB · Δ +1.1pp

Per-site accuracy

Site A — cardiology91.2%

24,830 samples · local-only validation

Site B — oncology89.7%

18,640 samples · local-only validation

Site C — imaging93.4%

31,205 samples · local-only validation

Site D — pediatrics87.6%

11,980 samples · local-only validation

Thách thức

Huấn luyện model qua nhiều site mà không di chuyển dữ liệu bệnh nhân thật, đồng thời xử lý non-IID và differential privacy.

Giải pháp

Khung FL với bộ aggregator an toàn, hỗ trợ differential privacy và balancer non-IID — được xác thực trên dataset y tế tổng hợp.

Kết quả

  • Benchmark nội bộ: độ chính xác trong khoảng 4pp của baseline tập trung trên dataset tổng hợp
  • Aggregator an toàn và DP được xác thực trong thí điểm nội bộ
  • Beta nội bộ với 3 nhà nghiên cứu — phản hồi phương pháp tích cực
  • Chỉ R&D nội bộ — dữ liệu tổng hợp, không có dữ liệu bệnh nhân thật
Key Metrics

Measured Impact

集約 AUC

0.847

NIH sim

DP 精度低下

-2.1pt

ε=8

DLG SSIM

0.08

secure agg

50ラウンド時間

3h

RTX 4090

Features

What it does

学習

FedProx+FedBN

施設間ドリフトを抑えつつ BN 統計をローカル保持。

動的クライアント選択

ラウンドごとに利用可能クライアントを選抜。

プライバシー

DP-SGD

Opacus で勾配ノイズとクリッピングを強制。

セキュア集約

加法的秘密分散でサーバに個別勾配を露出させない。

監査

プライバシー予算

RDP アカウンタで ε 消費をラウンドごとに記録。

攻撃ハーネス

DLG/MI 攻撃を再現し耐性を数値化。

Architecture

System Layers

Layered architecture showing components, responsibilities, and data flow.

L1

Layer

オーケストレーション

Flower.ai サーバを拡張し FedProx+FedBN 戦略とラウンドごとの監査ログを管理。

Flower ServerStrategy RegistryRound Scheduler
L2

Layer

クライアント

各シミュレーションクライアントで DP-SGD を実行。ノイズ量は ε/δ 目標から自動算出。

PyTorch TrainerOpacus EngineLocal DataLoader
L3

Layer

プライバシー層

加法的秘密分散と RDP アカウンタで ε 消費を追跡し、予算超過前に学習停止。

Secure AggregationGradient ClipperPrivacy Accountant
L4

Layer

観測・評価

ラウンドごとの AUC / ε / 攻撃再構成品質を可視化する内部ダッシュボード。

PrometheusGrafanaDLG Attack Harness
Development Process

How we built it

Step 1

データセット分割設計

NIH ChestX-ray14 / ISIC 2020 を non-IID に分割する複数パターンを用意。

Deliverables

  • 分割スクリプト
  • 統計レポート
  • ベースライン CNN
Step 2

Flower 戦略拡張

FedProx+FedBN を Strategy として実装し、収束曲線を記録。

Deliverables

  • Strategy 実装
  • ユニットテスト
  • 収束ログ
Step 3

プライバシー機構

Opacus と秘密分散を組み合わせ、RDP アカウンタで ε を追跡。

Deliverables

  • DP-SGD 設定
  • セキュア集約
  • プライバシー監査
Step 4

攻撃耐性評価

DLG と membership inference を実行し、防御有無の差分を計測。

Deliverables

  • 攻撃ハーネス
  • 耐性レポート
  • Grafana ダッシュボード
Roadmap

Delivery Timeline

  • Phase 0Done2026-04-24

    脅威モデル策定

    DLG / membership inference / poisoning の3軸で脅威を整理し対策を設計。

  • Phase 1Done2026-04-25

    FedProx+FedBN 実装

    non-IID 分割に対する収束性を内部シミュレーションで確認。

  • Phase 2Planned2026-05

    セキュア集約統合

    加法的秘密分散プロトコルをサーバに組み込み DLG 耐性を評価。

  • Phase 3Planned2026-07

    医療機関パイロット打診

    公開データセット検証結果をもとに共同研究を打診 (未契約)。

Team

Who built it

1engineer

Roles

  • ML リサーチエンジニア
Công nghệ sử dụng

Tools & Platforms

Backend

PythonFastAPI

Data

PostgreSQL

Infrastructure

Docker ComposePrometheusGrafana

Other

PyTorchFlower.aiOpacusPySyftgRPCCUDAMONAIMinIO
Build with KGA

Bạn quan tâm đến dự án tương tự?

Chúng tôi sẽ đề xuất giải pháp tốt nhất cho doanh nghiệp của bạn.

Trao đổi về dự án