データサイエンスのための数理要論

担当者:奥島 輝昭
開講学年:1年 後期
対象:全学部学科
授業方法:この授業はコースパワーやその他のLMSを用いたオンデマンド型遠隔授業で授業を実施する。 LMS上に講義動画、講義資料および小テストを配置する。

「データサイエンスのための数理要論」で使用する教科書について

最短コースでわかるディープラーニングの数学

赤石雅典 著
日経BP

シラバス

目次
  1. 導入編
    1. 機械学習入門
      1. 人工知能(AI)と機械学習
      2. 機械学習とは
        1. 機械学習モデルとは
        2. 学習の補法
        3. 教師あり学習と回帰、分類
        4. 学習フェーズと予測フェーズ
        5. 損失関数と勾配降下法
      3. はじめての機械学習モデル
      4. 機械学習・ディープラーニングにおける数学の必要性
      5. 本書の構成
  2. 理論編
    1. 微分・積分
      1. 関数
        1. 関数とは
        2. 関数のグラフ
      2. 合成関数・逆関数
        1. 合成関数
        2. 合成関数の表記法
        3. 逆関数
      3. 微分と極限
        1. 微分の定義
        2. 微分と関数地の近似表現
        3. 接線の方程式
        4. コラム 接線の方程式の問題と学習フェーズ・予測フェーズ
      4. 極大・極小
      5. 多項式の微分
        1. xnの微分
        2. 微分の計算の線形性と多項式の微分
        3. コラム C(Combination)と二項定理
      6. 積の微分
      7. 合成関数の微分
        1. 逆関数の微分
        2. 商の微分
      8. 積分
        1. コラム 積分記号の意味
    2. ベクトル・行列
      1. ベクトル入門
        1. ベクトルとは
        2. ベクトルの表記方法
        3. ベクトルの成分表示
        4. 多次元への拡張
        5. ベクトルの成分表示の表記法
      2. 和・差・スカラー倍
        1. ベクトルの和
        2. ベクトルの差
        3. ベクトルのスカラー倍
      3. 長さ(絶対値)・距離
        1. ベクトルの長さ(絶対値)
        2. 萩L号の意味
        3. ベクトル間の距離
      4. 三角関数
        1. 三角比
        2. 三角関数
        3. 三角関数のグラフ
        4. 直角三角形の辺を三角関数で表す。
      5. 内積
        1. 絶対値による内積の定義
        2. 成分表示形式での内積の公式
      6. コサイン類似度
        1. 2次元ベクトル間のなす角度
        2. コサイン類似度
        3. コサイン類似度の応用例
      7. 行列と行列演算
        1. 1出力ノードの内積表現
        2. 3出力ノードの行列積表現
    3. 多変数関数の微分
      1. 多変数関数
      2. 偏微分
      3. 全微分
      4. 全微分と合成関数
      5. 勾配降下法
      6. コラム 勾配降下法と局所最適解
    4. 指数関数・対数関数
      1. 指数関数
        1. 累乗の定義と法則
        2. 累乗の拡張
        3. 関数への拡張
      2. 対数関数
        1. コラム 対数関数の持つ意味
      3. 対数関数の微分
        1. コラム ネイピア数をPythonで確認する
      4. 指数関数の微分
        1. コラム ネイピア数(e)を底とする指数関数の表記法
      5. シグモイド関数
      6. softmax関数
        1. コラム シグモイド関数とsoftmax関数の関係
    5. 確率・統計
      1. 確率変数と確率分布
      2. 確率密度関数と確率分布関数
        1. コラム 正規分布関数とシグモイド関数
      3. 尤度関数と最尤推定
        1. コラム なぜ尤度関数の極値は極小値ではなく極大値をとるのか
  3. 実践編
    1. 線形回帰モデル(回帰)
      1. 損失関数と偏微分と勾配降下法
      2. 例題の問題設定
      3. 学習データの表記法
      4. 勾配降下法の考え方
      5. 予測モデルの作成
      6. 損失関数の作成
      7. 損失関数の微分計算
      8. 勾配降下法の適用
      9. プログラムの実装
        1. コラム NumPyを使ったコーディングテクニック
      10. 重回帰モデルへの拡張
        1. コラム 学習率・繰り返し回数の調整方法
    2. ロジスティック回帰モデル(2値分類)
      1. 例題の問題設定
      2. 回帰モデルと分類モデルの違い
      3. 予測モデルの検討
        1. コラム 予測値を確率かする裏の意味
      4. 損失関数の微分計算
      5. 勾配降下法の適用
      6. プログラムの実装
      7. コラム scikit-learnライブラリとの比較
        1. コラム サッカースキの王様たちの悩みと交差エントロピー
    3. ロジスティック回帰モデル(多値分類)
      1. 例題の問題設定
      2. モデルの基礎概念
      3. 重み行列
      4. softnax関数
      5. 損失関数
      6. 損失関数の微分計算
      7. 勾配降下法の適用
      8. プログラム実装
        1. コラム NumPy行列に対する集計関数の操作
    4. ディープラーニングモデル
      1. 例題の問題設定
      2. モデルの構成と予測関数
      3. 損失関数
      4. 損失関数の微分計算
      5. 誤差逆伝播
      6. 勾配降下法の適用
      7. プログラムの実装(その1)
      8. プログラムの実装(その2)
      9. プログラムの実装(その3)
      10. プログラムの実装(その4)
  4. 発展編
    1. 実用的なディープラーニングを目指して
      1. フレームワークの利用
      2. CNN
      3. RNNとLSTM
      4. 数値積分
      5. 高度な学習法
      6. 過学習対策
      7. 学習の単位
      8. 重み行列の初期値
      9. 次の頂上に向けて
  5. 付録 Jupiter Notebookの導入方法(Windows、Mac)