データサイエンスのための数理要論
担当者:奥島 輝昭
開講学年:1年 後期
対象:全学部学科
授業方法:この授業はコースパワーやその他のLMSを用いたオンデマンド型遠隔授業で授業を実施する。 LMS上に講義動画、講義資料および小テストを配置する。
「データサイエンスのための数理要論」で使用する教科書について
最短コースでわかるディープラーニングの数学
赤石雅典 著
日経BP
シラバス
目次
導入編
機械学習入門
人工知能(AI)と機械学習
機械学習とは
機械学習モデルとは
学習の補法
教師あり学習と回帰、分類
学習フェーズと予測フェーズ
損失関数と勾配降下法
はじめての機械学習モデル
機械学習・ディープラーニングにおける数学の必要性
本書の構成
理論編
微分・積分
関数
関数とは
関数のグラフ
合成関数・逆関数
合成関数
合成関数の表記法
逆関数
微分と極限
微分の定義
微分と関数地の近似表現
接線の方程式
コラム 接線の方程式の問題と学習フェーズ・予測フェーズ
極大・極小
多項式の微分
x
n
の微分
微分の計算の線形性と多項式の微分
コラム C(Combination)と二項定理
積の微分
合成関数の微分
逆関数の微分
商の微分
積分
コラム 積分記号の意味
ベクトル・行列
ベクトル入門
ベクトルとは
ベクトルの表記方法
ベクトルの成分表示
多次元への拡張
ベクトルの成分表示の表記法
和・差・スカラー倍
ベクトルの和
ベクトルの差
ベクトルのスカラー倍
長さ(絶対値)・距離
ベクトルの長さ(絶対値)
萩L号の意味
ベクトル間の距離
三角関数
三角比
三角関数
三角関数のグラフ
直角三角形の辺を三角関数で表す。
内積
絶対値による内積の定義
成分表示形式での内積の公式
コサイン類似度
2次元ベクトル間のなす角度
コサイン類似度
コサイン類似度の応用例
行列と行列演算
1出力ノードの内積表現
3出力ノードの行列積表現
多変数関数の微分
多変数関数
偏微分
全微分
全微分と合成関数
勾配降下法
コラム 勾配降下法と局所最適解
指数関数・対数関数
指数関数
累乗の定義と法則
累乗の拡張
関数への拡張
対数関数
コラム 対数関数の持つ意味
対数関数の微分
コラム ネイピア数をPythonで確認する
指数関数の微分
コラム ネイピア数(e)を底とする指数関数の表記法
シグモイド関数
softmax関数
コラム シグモイド関数とsoftmax関数の関係
確率・統計
確率変数と確率分布
確率密度関数と確率分布関数
コラム 正規分布関数とシグモイド関数
尤度関数と最尤推定
コラム なぜ尤度関数の極値は極小値ではなく極大値をとるのか
実践編
線形回帰モデル(回帰)
損失関数と偏微分と勾配降下法
例題の問題設定
学習データの表記法
勾配降下法の考え方
予測モデルの作成
損失関数の作成
損失関数の微分計算
勾配降下法の適用
プログラムの実装
コラム NumPyを使ったコーディングテクニック
重回帰モデルへの拡張
コラム 学習率・繰り返し回数の調整方法
ロジスティック回帰モデル(2値分類)
例題の問題設定
回帰モデルと分類モデルの違い
予測モデルの検討
コラム 予測値を確率かする裏の意味
損失関数の微分計算
勾配降下法の適用
プログラムの実装
コラム scikit-learnライブラリとの比較
コラム サッカースキの王様たちの悩みと交差エントロピー
ロジスティック回帰モデル(多値分類)
例題の問題設定
モデルの基礎概念
重み行列
softnax関数
損失関数
損失関数の微分計算
勾配降下法の適用
プログラム実装
コラム NumPy行列に対する集計関数の操作
ディープラーニングモデル
例題の問題設定
モデルの構成と予測関数
損失関数
損失関数の微分計算
誤差逆伝播
勾配降下法の適用
プログラムの実装(その1)
プログラムの実装(その2)
プログラムの実装(その3)
プログラムの実装(その4)
発展編
実用的なディープラーニングを目指して
フレームワークの利用
CNN
RNNとLSTM
数値積分
高度な学習法
過学習対策
学習の単位
重み行列の初期値
次の頂上に向けて
付録 Jupiter Notebookの導入方法(Windows、Mac)