エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
XGboostとは?理論とPythonとRでの実践方法!|スタビジ
XGboostは「eXtreme Gradient Boosting」の略で2014年に発表された手法です。 勾配ブースティングと呼ば... XGboostは「eXtreme Gradient Boosting」の略で2014年に発表された手法です。 勾配ブースティングと呼ばれるアンサンブル学習と決定木を組み合わせた手法で非常に高い汎化能力を誇ります。 アンサンブル学習とは、弱学習器(それほど性能の高くない手法)を複数用いて総合的に結果を出力する方法で、バギングとブースティングというタイプがあります。 バギングは弱学習器を並列に使うイメージ。決定木とバギングを組み合わせたのがランダムフォレストです。 ランダムフォレストの簡単なイメージが以下 並列に決定木モデルを扱ってそれぞれのモデルの結果を総合的に判断します。 一方でブースティングは弱学習器を直列に使います。 ブースティングと決定木を組み合わせたのがXGboostなのです。 最初の学習器で上手く分類・推定できなかった部分に対して重みを付けて次の弱学習器で学習を行います。 そうす
2021/02/05 リンク