内容紹介
Deep Learning のフレームワークである Chainer を使って、複雑なニューラルネットの実装方法を解説!!
Chainer は 2015年にPreferred InfrastructureがPython のライブラリとして開発・公開したフレームワークです。
本書は、Python の拡張モジュールであるNumPyの使い方やニューラルネットの基本をおさらいした後に、Chainerの基本的な使い方を示します。次にAutoEncoderを題材にして、それを確認し、最後に、自然言語処理でよく使われるword2vecと RNN(Recurrent Neural Network) を解説し、それらシステムを Chainer で実装します。既存にない複雑なネットワークのプログラムを作る際の参考となるものです。
このような方におすすめ
Deep Learning を勉強している理科系の大学生
データ解析を業務としている技術者
目次
主要目次
第0章 Chainerとは
第1章 NumPyで最低限知っておくこと
第2章 ニューラルネットのおさらい
第3章 Chainerの使い方
第4章 Chainerの利用例
第5章 Denoising AutoEncoder
第6章 word2vec
第7章 Recurrent Neural Networks
(状態をもったニューラルネット)
第8章 翻訳モデル
第9章 Caffeのモデルの利用
第10章 GPUの利用
参考文献
付録 ソースプログラム
詳細目次
はじめに
第0章 Chainerとは
第1章 NumPyで最低限知っておくこと
1.1 配列の生成
1.2 配列の加
1.3 配列に対する演算
1.4 配列の保存と読み出し
第2章 ニューラルネットのおさらい
2.1 モデル
2.2 確率的勾配降下法と誤差逆伝播法
2.3 ミニバッチ
2.4 分類問題への応用
第3章 Chainer の使い方
3.1 計算グラフと順伝播・逆伝播
3.2 基本オブジェクト
3.2.1 Variable
3.2.2 functions
3.2.3 links
3.3 Chain クラス
3.4 optimizers
第4章 Chainer の利用例
4.1 全体図
4.2 Iris データ
4.3 基本的なプログラム
4.4 ミニバッチ
4.5 誤差の累積
4.6 softmax
4.7 softmax cross entropy
4.8 ロジスティック回帰
第5章 Denoising AutoEncoder
5.1 AutoEncoder(AE)
5.2 Denoising AutoEncoder(DAE)
第6章 word2vec
6.1 分散表現
6.2 モデルの式
6.3 計算のためのネットワーク
6.4 Chainer によるword2vec の実装
6.5 システムから提供されている関数の利用
第7章 Recurrent Neural Network
7.1 時系列データに対するRNN
7.2 言語モデル
7.3 RNNLM のネットワーク
7.4 Chainer によるRNNLM の実装
7.5 言語モデルの評価
7.6 LSTM
7.7 Chainer によるLSTM の実装
7.8 システムから提供されている関数の利用
7.9 GRU
第8章 翻訳モデル
8.1 Encoder-Decoder 翻訳モデル
8.2 訓練データの準備
8.3 Chainer によるEncoder-Decoder 翻訳モデルの実装
8.4 翻訳処理
8.5 Attention の導入
第9章 Caffe のモデルの利用
9.1 Caffe のモデルの取得
9.2 Chainer からのCaffe のモデルの利用
9.3 入力データの処理
9.4 出力データの処理
第10章 GPU の利用
10.1 GPU 対応
10.2 GPU の選択
10.3 CUDA のインストール
10.4 cuDNN のインストール
10.5 Chainer の再インストール
10.6 GPU 導入の効果の確認
10.7 CuPy
10.8 Chainer でのGPU の利用方法
参考文献
ソースプログラム
索引
続きを見る