本のメモ

読んだ本の内容をメモしていきます。たまに数式が読み込めないことがあるので、その時にはリロードしてみてください。

【これならわかる深層学習入門】Chapter1を読みました

www.kspub.co.jp

Chapter1 はじめに

 ここには、この本の基本的な読み方が書いてある。

簡単なまとめ

[p.1]

 [図1.1本書の構成]には章の流れが書いてある。 →付録A,Bから始まってるがここから読んだ方がいいのかな?

[p.2]

 数学的記法の注意点。

・ベクトルは基本的に全て縦ベクトル。

 
v = \begin{bmatrix} v_{1} \\ v_{2} \\ v_{3} \end{bmatrix} ,  

v^{T} = \begin{bmatrix} v_{1} & v_{2} & v_{3} \end{bmatrix}

・ベクトルの長さ(の2乗)については、単純にv^{2}で表す。

・確率変数は X で、確率変数の実現値については x で表す。

・離散確率変数と連続確率変数を区別しない。これらの従う分布を P(X)とかく。 →違和感あるけど、そういうもの?

 P(X)から一つの実現値を生成する作業を「 Xをサンプリングする」と呼んでそれを  x \sim P(X) と表記する。 →普通は確率変数がある分布に従う時に X \sim p.d.みたいに書くけど、ここでは違うのかな。

・近似的に値が等しいの記号は \approx

・確率分布 Pに関する期待値は E_{P} [\cdots ] と表す。誤差関数 E[\cdots ] を混同しないように注意。

感想

  1. 離散と連続の確率変数をきちんと分けておかないと、そのうちめんどくさいことになる予感。

  2. ちょっと記法に違和感があるが、そのうち慣れるのかも。

  3. 付録は簡単な内容だけど、一応ここから読んだ方が良いのかな。