機械学習の概要
教師なし学習(例:主成分分析やk-means)とは特徴量(説明変数)のみを用いて学習することであり教師あり学習(例:ランダムフォレストやSVM)とはこの説明変数に正解ラベルの教師データを加味したものである。教師あり学習では多くのこの二つのパターンを学べば学ぶほど高い精度を実現できる。ラッソ回帰とは線形回帰にL1正則化を加えた手法であり対してリッジ回帰は線形回帰にL2正規化を加えた手法である。ロジスティック回帰とは線形回帰の手法にシグモイド関数を介在させたものであり公差エントロピーが損失関数として使用される。バギングは多数の決定技を用いて予測を行うアンサンブル学習の手法である。このような決定技モデルを弱学習器と呼び、これを活用する方法をブースティングと呼ぶ。サポートベクターマシン(SVM)は教師あり学習の一種でマージンによってタスクを解決する。SVMはこのマージンが最大化するように分類境界を考える手法である。もっと具体的に言うとカーネル関数によるカーネルトリックを用いる。階層ありクラスタリング手法であるウォード法はデンドログラムと呼ばれる樹形図をプロセスに取り距離近似によってクラスタを構成する手法である。協調フィルタリングとはユーザの関心に基づくレコメンドを行う手法である。これが初歩的に躓いているときコールドスタート問題に直面しているといえる。強化学習とはエージェントが環境と作用しながら最適な行動を学習する。報酬が最大となるように割引率を乗じることでそのプロセスが進むのである。これは価値関数(状態価値関数や行動価値関数:後者にはQ学習やSARSAがある)に基づく方策とも呼べる。多腕バンディット問題とはスロットマシン問題(効率よく当たりを引く問題)のことである。この中で探索と活用のアルゴリズムが用いられ具体的にはε-greedy方策やUCB方策といったものがある。マルコフ決定過程とは未来予測にあたり現状の状態ととった行動のみに依存する仮定を置いて問題を扱うことを言う。方策勾配法はあるパラメータに使用した関数で方策を表し状態価値を最大化するようにパラメータを学習することで方策そのものを学習する手法だという。そのアルリズムにはREINFORCEやA3C(Actor-Criticの応用手法)がある。正解率…(TP+TN)/(TP+TN+FP+FN).適合率…(TP)/(TP+FP).再現率…(TP)/(TP+FN).F値…(2*Precision*Recall)/(Precision+Recall)というように各評価指標の計算式も簡潔に覚えておきたい。総じて機械学習は範囲が広いので正確に概要を把握する必要がある。