関連サイト
本書の関連ページが用意されています。
内容紹介
ニューラルネットワークの理論とディープラーニングの実装について丁寧に解説。実装には、Python(3.x)とディープラーニング向けライブラリKeras(2.x)、TensorFlow(2.x)、PyTorch(1.x)を用います。
本書では、自然言語処理をはじめとした時系列データ処理のためのディープラーニング・アルゴリズムに焦点を当てているのも大きな特徴の1つです。本書の[第1版](2017年)以降に次々と登場している新しい手法やモデルを丁寧に説明、記事も大幅にボリュームアップしました。
[本書の構成]
1章 数学の準備:ニューラルネットワークのアルゴリズムを理解するための数学の知識、偏微分と線形代数の基本を学びます。アルゴリズムが複雑になってもこの2つを押さえておけばきちんと理解できます。
2章 Pythonの準備:ディープラーニングのアルゴリズムを実装するため、Python環境の構築およびPythonの基本から代表的なライブラリの使い方までを解説します。
3章 ニューラルネットワーク:ニューラルネットワークとは何か、どういった手法かを解説します。単純パーセプトロン、ロジスティック回帰、多クラスロジスティック回帰、多層パーセプトロンを扱います。
4章 ディープニューラルネットワーク:ディープラーニングはニューラルネットワークのモデルの発展形です。ニューラルネットワークから「ディープ」ニューラルネットワークになるうえで発生する課題とそれを解決するテクニックについて解説します。
5章 リカレントニューラルネットワーク:ニューラルネットワークに「時間」という概念を取り込むとどのようなモデルになるのか。通常のディープラーニングのモデルではうまく扱うことができない時系列データの扱いに特化したモデルであるリカレントニューラルネットワーク(RNN)とその手法LSTM、GRUについて取り上げます。
6章 リカレントニューラルネットワークの応用:時系列データの扱いに関しては、自然言語処理で新しいモデルが考えられてきました。本章では、Encoder-Decoder、Attention、Transformerについて学んでいきます。
付録:ライブラリ内部の処理を理解するためのグラフの知識と、Pythonのデコレータ @tf.function の実装例、Keras、TensorFlow、PyTorchによるモデルの保存・読み込みについて解説します。
書誌情報
- 著者: 巣籠悠輔
- 発行日: 2019-11-27 (紙書籍版発行日: 2019-11-27)
- 最終更新日: 2019-11-27
- バージョン: 1.0.0
- ページ数: 456ページ(PDF版換算)
- 対応フォーマット: PDF
- 出版社: マイナビ出版
対象読者
著者について
巣籠悠輔
株式会社MICIN CTO、日本ディープラーニング協会 有識者会員。2018年にForbes 30 Under 30 Asia 2018 に選出。著書に『詳解ディープラーニング』、監訳書に『PythonとKeras によるディープラーニング』(マイナビ出版刊)がある。
目次
はじめに
1章 数学の準備
- 1.1 偏微分
- 1.2 線形代数
- 1.3 まとめ
- 1章の参考文献
2章 Python の準備
- 2.1 Python 2とPython 3
- 2.2 Anaconda ディストリビューション
- 2.3 Python の基本
- 2.4 NumPy
- 2.5 ディープラーニング向けライブラリ
- 2.6 まとめ
3章 ニューラルネットワーク
- 3.1 ニューラルネットワークとは
- 3.2 回路としてのニューラルネットワーク
- 3.3 単純パーセプトロン
- 3.4 ロジスティック回帰
- 3.5 多クラスロジスティック回帰
- 3.6 多層パーセプトロン
- 3.7 モデルの評価
- 3.8 まとめ
4章 ディープニューラルネットワーク
- 4.1 ディープラーニング向けライブラリの導入(Keras/TensorFlow/PyTorch)
- 4.2 ディープラーニングへの準備
- 4.3 活性化関数の工夫
- 4.4 ドロップアウトの導入
- 4.5 学習の効率化に向けて
- 4.6 学習率の設定
- 4.7 重みの初期値の設定
- 4.8 バッチ正規化
- 4.9 まとめ
- 4章の参考文献
5章 リカレントニューラルネットワーク
- 5.1 基本のアプローチ
- 5.2 LSTM
- 5.3 GRU
- 5.4 双方向リカレントニューラルネットワーク
- 5.5 埋め込み層における計算
- 5.6 まとめ
- 5章の参考文献
6章 リカレントニューラルネットワークの応用
- 6.1 Encoder-Decoder
- 6.2 Attention
- 6.3 Transformer
- 6.4 まとめ
- 6章の参考文献
付録
- A.1 計算グラフ
- A.2 @tf.function
- A.3 モデルの保存と読み込み(Keras、TensorFlow、PyTorch)