関連サイト
本書の関連ページが用意されています。
内容紹介
XAI Pythonライブラリで予測結果を説明。ブラックボックスからグラスボックスへ。
ビジネス上の意思決定につながる機械学習の予測には、解釈・説明が求められます。そこで、そうした解釈・説明を行うための手法を紹介していきます。
まず、モデルの説明可能性と解釈可能性の全体像、倫理的に考慮すべき点、生成された予測のバイアスについて説明します。
次に、LIME、SHAP、Skater、ELI5、skope-rulesといったPythonライブラリを使って、モデルがなぜそのように予測するのかを探っていきます。
予測モデルとして、線形・非線形モデルのほか、アンサンブルモデル、時系列モデル、自然言語処理、ディープラーニング、コンピュータービジョンを取り上げます。
本書は解釈・説明のための方法を包括的に取り上げており、機械学習を実際の現場で活用する方にぜひ手に取っていただきたい一冊です。
◎Pythonの文法・ライブラリや機械学習について標準的な知識を理解している必要があります。
書誌情報
- 著者: Pradeepta Mishra(著), 株式会社クイープ(訳)
- 発行日: 2023-06-20 (紙書籍版発行日: 2023-06-20)
- 最終更新日: 2023-06-20
- バージョン: 1.0.0
- ページ数: 322ページ(PDF版換算)
- 対応フォーマット: PDF, EPUB
- 出版社: インプレス
対象読者
データサイエンティスト、AIプロジェクトの関係者、開発者
著者について
Pradeepta Mishra
インドを拠点とする多国籍企業のITサービス兼コンサルティング会社L&T InfotechのAIデータプロダクト部門上席。データサイエンティスト、計算言語学エキスパート、機械学習・深層学習のエキスパートからなる大規模なグループを率いる。以前には、Analytics India Magazineの「India's Top - 40 Under 40 DataScientists」に選出された。また、データサイエンスやAIに関する500以上の技術講演を、さまざまな大学や技術機関、コミュニティなどで行う。
株式会社クイープ
目次
まえがき
目次
第1章 モデルの説明可能性と解釈可能性
- 1.1 フレームワークの確立
- 1.2 AI
- 1.2.1 XAIの必要性
- 1.2.2 説明可能性と解釈可能性
- 1.2.3 説明(解釈)可能性の種類
- 1.2.4 モデルの説明可能性のためのツール
- 1.2.5 SHAP
- 1.2.6 LIME
- 1.2.7 ELI5
- 1.2.8 Skater
- 1.2.9 skope-rules
- 1.2.10 機械学習のためのXAIの手法
- 1.2.11 XAI互換のモデル
- 1.2.12 XAIと責任あるAI
- 1.2.13 XAIの評価
- 1.3 まとめ
第2章 AIの倫理、偏見、信頼性
- 2.1 速習:AIの倫理
- 2.2 AIの偏見
- 2.3 データのバイアス
- 2.4 アルゴリズムのバイアス
- 2.5 バイアスを減らすプロセス
- 2.6 解釈のバイアス
- 2.7 訓練のバイアス
- 2.8 AIの信頼性
- 2.9 まとめ
第3章 線形モデルの説明可能性
- 3.1 線形モデル
- 3.2 線形回帰
- 3.3 発生する可能性がある問題とVIF
- 3.3.1 最終的なモデル
- 3.3.2 モデルの説明可能性
- 3.4 機械学習モデルへの信頼:SHAP
- 3.4.1 機械学習モデルでの局所的な説明と個々の予測値
- 3.4.2 機械学習モデルでの大域的な説明と全体的な予測値
- 3.5 LIMEによる説明と機械学習モデル
- 3.6 Skaterによる説明と機械学習モデル
- 3.7 ELI5による説明と機械学習モデル
- 3.8 ロジスティック回帰
- 3.8.1 解釈
- 3.8.2 LIMEの推論
- 3.9 まとめ
第4章 非線形モデルの説明可能性
- 4.1 非線形モデル
- 4.2 決定木の説明
- 4.3 決定木モデルのデータを準備する
- 4.3.1 決定木モデルを作成する
- 4.4 決定木:SHAP
- 4.5 SHAPを使ったPDP
- 4.6 scikit-learnを使ったPDP
- 4.7 非線形モデルの説明:LIME
- 4.8 非線形モデルの説明:skope-rules
- 4.9 まとめ
第5章 アンサンブルモデルの説明可能性
- 5.1 アンサンブルモデル
- 5.1.1 アンサンブルモデルの種類
- 5.2 アンサンブルモデルを使うのはなぜか
- 5.3 アンサンブルモデルでSHAPを使う
- 5.4 InterpretMLを使ってブースティングモデルを説明する
- 5.5 アンサンブル分類モデル:SHAP
- 5.6 SHAPを使ってCatBoostモデルを説明する
- 5.7 SHAPを使ってCatBoostベースの多クラス分類モデルを説明する
- 5.8 SHAPを使ってLightGBMモデルを説明する
- 5.9 まとめ
第6章 時系列モデルの説明可能性
- 6.1 時系列モデル
- 6.2 どのモデルが適切かを知る
- 6.2.1 予測のための戦略
- 6.2.2 予測の信頼区間
- 6.3 信頼はどうなる?
- 6.4 時系列モデル:LIME
- 6.5 まとめ
第7章 自然言語処理の説明可能性
- 7.1 自然言語処理のタスク
- 7.2 テキスト分類の説明可能性
- 7.3 テキスト分類用のデータセット
- 7.4 ELI5を使って説明する
- 7.5 局所的な説明に対する特徴量の重みを計算する
- 7.5.1 局所的な説明:例1
- 7.5.2 局所的な説明:例2
- 7.5.3 ストップワードを取り除いた後の説明
- 7.6 n-gramベースのテキスト分類
- 7.7 複数ラベルの多クラステキスト分類の説明可能性
- 7.7.1 局所的な説明:例1
- 7.7.2 局所的な説明:例2
- 7.7.3 局所的な説明:例3
- 7.8 まとめ
第8章 What-Ifシナリオを使ったモデルの公平性
- 8.1 WITとは何か
- 8.2 WITのインストールと活用
- 8.2.1 評価指標
- 8.3 まとめ
第9章 ディープラーニングモデルの説明可能性
- 9.1 ディープラーニングモデルを説明する
- 9.2 ディープラーニングでSHAPを使う
- 9.2.1 Deep SHAPを使う
- 9.2.2 画像分類でSHAP DeepExplainerを使う:例1
- 9.2.3 画像分類でSHAP DeepExplainerを使う:例2
- 9.2.4 表形式データでSHAP DeepExplainerを使う
- 9.3 まとめ
第10章 XAIモデルの反実仮想説明
- 10.1 反実仮想説明とは何か
- 10.2 反実仮想説明を実装する
- 10.3 Alibiを使った反実仮想説明
- 10.4 回帰タスクでの反実仮想説明
- 10.5 まとめ
第11章 機械学習での対比的説明
- 11.1 機械学習での対比的説明とは何か
- 11.2 Alibiを使ったモデルの対比的説明
- 11.2.1 元の画像とオートエンコーダが生成した画像を比較する
- 11.2.2 表形式データでのCEM
- 11.3 まとめ
第12章 予測不変性の特定によるモデル不可知の説明
- 12.1 モデル不可知とは何か
- 12.2 アンカーとは何か
- 12.3 Alibiを使ったアンカー説明
- 12.4 テキスト分類でAnchorTextを使う
- 12.5 画像分類でAnchorImageを使う
- 12.6 まとめ
第13章 ルールベースのエキスパートシステムでのモデルの説明可能性
- 13.1 エキスパートシステムとは何か
- 13.1.1 前向き連鎖と後ろ向き連鎖
- 13.2 scikit-learnを使ったルール抽出
- 13.3 ルールベースのシステムが必要な理由
- 13.4 エキスパートシステムの課題
- 13.5 まとめ
第14章 コンピュータビジョンでのモデルの説明可能性
- 14.1 画像データでの説明可能性
- 14.1.1 コンピュータビジョンでアンカー画像を使う
- 14.2 勾配積分法
- 14.3 まとめ