試験公開中

このエントリーをはてなブックマークに追加

解釈可能なAI

マイナビ出版

4,983円 (4,530円+税)

本書では、線形回帰や決定木などのシンプルなホワイトボックスモデルから、深層ニューラルネットワークなどのようなブラックボックスモデルまで、その解釈手法とPythonによる実装を解説。「なぜ、この予測をしたのか」に答え「説明可能なAI」に至るための道を示しています。

関連サイト

本書の関連ページが用意されています。

内容紹介

『Interpretable AI:Building Explainable Machine Learning Systems』(Ajay Thampi/Manning)の日本語版。

AIモデルの透明性と解釈可能性、そして説明可能性の追求は、エラーやバイアスを最小限に抑え、予測結果の信頼性・公平性を高め「責任あるAI」を実現するために重要な分野です。

本書では、線形回帰や決定木などのシンプルなホワイトボックスモデルから、深層ニューラルネットワークなどのようなブラックボックスモデルまで、その解釈手法とPythonによる実装を解説。「どのように動作し、予測に至ったのか」に答え、モデルを「解釈可能」にするためのアプローチを網羅的に扱い、そして更に「なぜ、この予測をしたのか」に答え「説明可能なAI」に至るための道を示しています。

【日本語版特別付録】
本書の第7章では、英語を対象とした、テキストからの特徴量の抽出を扱っています。日本語版には、この処理を日本語に適用する方法を解説した『付録C 日本語版付録 日本語を扱う』を収録しています。

書誌情報

  • 著者: Ajay Thampi(著), 松田晃一(翻訳)
  • 発行日:
  • 最終更新日: 2023-09-14
  • バージョン: 1.0.0
  • ページ数: 368ページ(PDF版換算)
  • 対応フォーマット: PDF
  • 出版社: マイナビ出版

対象読者

著者について

Ajay Thampi

信号処理と機械学習をテーマに博士号を取得し、強化学習、凸最適化、5Gセルラーネットワークに適用される古典的な機械学習技術をテーマに主要なカンファレンスやジャーナルで論文を発表している。現在は大手テック企業にて「責任あるAI」と公平性を専門に機械学習エンジニアとして活躍。マイクロソフトのリードデータサイエンティストとして、製造業、小売業、金融業など様々な業界の顧客に対して、複雑なAIソリューションをデプロイする仕事を担当した経験を持つ。

松田晃一

博士(工学、東京大学)。石川県羽咋市生まれ。『宇宙船ビーグル号の冒険』を読み、絵描きではなく、コンピュータの道へ。海(海水浴)と温泉を好む。HCI/AR/VR/UX、画像処理・認識、機械学習、エッセーの執筆、技術書、SF、一般書の翻訳などに興味を持つ。最近立ち上げたPython の講義が(自分では)結構良く構成でき、再構成し書籍化を考えている。PAW^2(メタバース)の開発に携わり、オープンソースのm3py ライブラリの開発を行っている。

目次

第1部 解釈可能性の基礎

第1章 はじめに

  • 1.1 Diagnostics+のAI―AIシステムの一例
  • 1.2 機械学習システムの種類
  • 1.3 Diagnostics+のAIを構築する
  • 1.4 Diagnostics+のAIの問題点
  • 1.5 Diagnostics+のAIシステムを堅牢にする
  • 1.6 解釈可能性と説明可能性
  • 1.7 本書で何を学ぶのか?
  • 1.8 まとめ

第2章 ホワイトボックスモデル

  • 2.1 ホワイトボックスモデル
  • 2.2 Diagnostics+―糖尿病の進行度
  • 2.3 線形回帰
  • 2.4 決定木
  • 2.5 一般化加法モデル(GAM)
  • 2.6 ブラックボックスモデルとは
  • 2.7 まとめ

第2部 モデルの処理の解釈

第3章 モデルに依存しない方法:大域的な解釈可能性

  • 3.1 高校生の成績予測器
  • 3.2 アンサンブルツリー
  • 3.3 ランダムフォレストを解釈する
  • 3.4 モデルに依存しない方法:大域的な解釈可能性
  • 3.5 まとめ

第4章 モデルに依存しない方法:局所的な解釈可能性

  • 4.1 Diagnostics+のAI:乳がん診断
  • 4.2 探索的データ分析
  • 4.3 深層ニューラルネットワーク
  • 4.4 DNNを解釈する
  • 4.5 LIME
  • 4.6 SHAP
  • 4.7 アンカー
  • 4.8 まとめ

第5章 顕著性マップ

  • 5.1 Diagnostics+のAI:浸潤性乳管がんの検出
  • 5.2 探索的データ分析
  • 5.3 畳み込みニューラルネットワーク
  • 5.4 CNNを解釈する
  • 5.5 バニラバックプロパゲーション
  • 5.6 ガイド付きバックプロパゲーション
  • 5.7 その他の勾配ベースの手法
  • 5.8 Grad-CAMとガイド付きGrad-CAM
  • 5.9 どの寄与度推定法を使えばいいのか?
  • 5.1 まとめ

第3部 モデルの表現の解釈

第6章 層とユニットを理解する189

  • 6.1 視覚的な理解
  • 6.2 畳み込みニューラルネットワーク:復習
  • 6.3 ネットワーク分析フレームワーク
  • 6.4 層とユニットを解釈する
  • 6.5 まとめ

第7章 意味的な類似性を理解する

  • 7.1 感情分析
  • 7.2 探索的データ分析
  • 7.3 ニューラル単語埋め込み
  • 7.4 意味的類似性を解釈する
  • 7.5 まとめ

第4部 公平性とバイアス

第8章 公平性とバイアスの軽減

  • 8.1 収入予測
  • 8.2 公平性の概念
  • 8.3 解釈可能性と公平性
  • 8.4 バイアスを軽減する
  • 8.5 データセットのためのデータシート
  • 8.6 まとめ

第9章 説明可能なAIへの道

  • 9.1 説明可能なAI
  • 9.2 反実仮想的な説明
  • 9.3 まとめ

Appendix

付録A セットアップを行う

  • A.1 Python
  • A.2 Gitコードリポジトリ
  • A.3 Conda環境
  • A.4 JupyterNotebook
  • A.5 Docker

付録B PyTorch

  • B.1 PyTorchとは?
  • B.2 PyTorchをインストールする
  • B.3 テンソル
  • B.4 データセットとDataLoader
  • B.5 モデリング

付録C 日本語版付録日本語を扱う

  • C.1 単語に分割する
  • C.2 ワードクラウドを作成する
  • C.3 日本語を単語埋め込み化する