タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

AIとNNに関するNEXTAltairのブックマーク (2)

  • 活性化関数を色々いじってみる - Qiita

    前回、前々回と、ニューラルネットの挙動を理解するために色々アニメーションを作ってきました。 今回は、前回の検討に引き続き、ニューラルネットワークの中で非線形的な挙動を生み出す活性化関数について、面白い活性化関数がないか考察をしてみたいと思います。 活性化関数とは ニューラルネットワークは、各隠れ層において「接続層での線形変換」に加えて、「活性化関数による非線形変換」を実施するネットワークになります。 もし活性化関数による非線形変換がない場合は、いくら隠れ層を増やしても表現力が増えません。(複数層の線形変換を1層の線形変換で表現できてしまう)よって、複雑な表現を手に入れるためには、活性化関数による非線形変換が重要なステップとなります。 活性化関数としてどのような関数であるべきかについては、下記のような要件が必要条件になるかと思います。 非線形であること 計算機で扱いやすい値を取ること(オーバ

    活性化関数を色々いじってみる - Qiita
  • ついに誕生!期待の新しい活性化関数「Mish」解説

    3つの要点 ✔️ ReLU、Swishに次ぐ新たな活性化関数Mishを提案 ✔️ MNISTやCIFAR-10/100などでReLUとSwishを圧倒 ✔️ 論文筆者実装のGitHubレポは早速600以上のスターを持ち、非常に簡単に使える Mish: A Self Regularized Non-Monotonic Neural Activation Function written by Diganta Misra (Submitted on 23 Aug 2019 (v1), last revised 2 Oct 2019 (this version, v2)) Subjects: Machine Learning (cs.LG); Computer Vision and Pattern Recognition (cs.CV); Neural and Evolutionary Comp

    ついに誕生!期待の新しい活性化関数「Mish」解説
    NEXTAltair
    NEXTAltair 2022/10/30
    深いネットワークを使わないファインチューニングの場合Mishは無用の長物のような気がするな。アニメ調の絵だとgeluもいいよって見たが処理おっそい
  • 1