#073 AI 安全與合規
IBM AIF360
IBM AIF360 公平性工具包
★★★★☆ 難度 4/5
開源 ML 偏見偵測,70+ 公平性指標
工具介紹
IBM AI Fairness 360(AIF360)是由 IBM Research 開發並開源的機器學習公平性工具包,提供超過 70 個公平性指標與 11 種偏見緩解演算法,是學術界和工業界最廣泛使用的 AI 公平性框架之一。AIF360 能檢測訓練資料與模型預測中的各類偏見,包括個別公平性、群體公平性等多種定義,並提供對應的資料預處理、演算法調整和後處理緩解技術。其 Python 函式庫能與 scikit-learn、TensorFlow、PyTorch 等主流 ML 框架無縫整合。對於需要向監管機構或利益相關者證明模型公平性的企業,AIF360 提供了嚴謹的量化評估工具。
核心功能
- ✓ 70+ 公平性指標,涵蓋個別公平性與群體公平性多種定義
- ✓ 11 種偏見緩解演算法,對應資料、模型、後處理三個階段
- ✓ 與 scikit-learn、TensorFlow、PyTorch 無縫整合
- ✓ 互動式 Jupyter Notebook 教程,協助理解公平性概念
- ✓ 可視化工具,直觀呈現不同群體間的模型效能差異
適用情境
- ● 金融機構評估信貸審核模型是否存在種族或性別偏見
- ● HR 科技公司驗證招募篩選 AI 的公平性,避免歧視訴訟
- ● 醫療 AI 開發者確保診斷模型對不同族裔群體的公平性
- ● 研究人員比較不同公平性定義在特定場景下的適用性
#AI 公平性
#偏見偵測
#開源 ML