「ラビット・チャレンジ」応用数学まとめ

第1章:線形代数

<考察、感想等>

 行列が機械学習の計算のベースとなることはここまでの導入学習で、痛感している。機械学習においても、如何に膨大な計算量を減らす工夫が必要かということが大切であり、そのために非常に重要な部分

 

スカラーとベクトルの違い

 スカラーは普通の数、ベクトルは大きさと向きをもつ

●行列

スカラーを表にしたもの

・ベクトルを並べたもの

・行列の積

 行×列で新たな行列の成分を求める

行基本変形で逆行列を求めることができる

行列式

 平行四辺形の面積が逆行列の有無を判別する。この面積を行列式と呼ぶ

固有値固有ベクトル固有値分解

正方形の行輝を3つの行列の積に変換することを固有値分解という。

 この変換によって行列の累乗の計算が容易になる等の利点がある

[参考図書]

機械学習のエッセンス SBクリエイティブ 加藤公一

 線形代数のポイントについては、非常にわかりやすく、例題の解説も詳しい

 理解を深めるために使用しました。

 

第2章 確率・統計

<考察、感想等>

 ベイズ則等あらためて学習し、普段の業務の中でも活かせる考え方であると感じた。

機械学習のアウトプットを考えるうえでも非常に重要な部分

●条件付き確率

・頻度確率とベイズ確率

・条件付き確率

 ある事象X=xが与えられた下で、Y=yとなる確率

・独立な事象の同時確率

 お互いの発生には因果関係のない事象X=xと事象Y=yが同時に発生する確率

ベイズ

 飴玉をもらう確率と飴玉をもらうと笑顔になる確率→笑顔な子供が飴玉をもらっている確率

●確率変数と確率分布

・確率変数

 事象と結びつけられた数値

・確率分布

 事象の発生する確率の分布

・期待値

 その分布における確率変数の平均の値ORありえそうな値

・分散

 データの散らばり具体

・共分散

 2つのデータ系列の傾向の違い

●様々な確率分布

・ベルヌーイ分布

・マルチヌーイ分布

・二項分布

ガウス分布

 

第3章 情報理論

<考察、感想等>

 エントロピーの感が方自体、初めて学習。生活の中で、自然に考えていることではあるが、改めて整理することで様々な応用が利くと感じた。分析結果の重みづけの上で非常に重要な考え方であると理解

機械学習のアウトプットを考えるうえでも非常に重要な部分

●自己情報量、シャノンエントロピー

シャノンエントロピーは事故情報量の期待値

●カルバック・ライブラーダイバージェンス

・同じ事象、確率変数における異なる確率分布P,Qの違いを表す

・交差エントロピー

KLダイバージェンスの一部分を取り出したもの