渋谷LT2/8

1 Star2 Stars3 Stars4 Stars5 Stars (まだ評価されていません)
Loading...

今日のLT

プレゼンター:吉田さん
SESのバウンス対策について

吉田Lt 20170208 from kumaco

プレゼンター:亀田さん
CSSのデザインでよく遭遇する問題とその解決法

亀田Lt 20170208 from kumaco

ゼロから作るDeep Learning第五回

話題はついに学習方法について

今日のメモ

ニューラルネットワーク・ディープラーニングは人の介入が極力行われない
機械学習とディープラーニングの違い:特徴量を必要とするか否か
学習するときに特定のデータセットのみを学習させた場合他のデータセットに対応できないという状態を過学習と呼ぶ
損失関数:
ニューラルネットワークが最適なパラメータを探索するために指標とするもの。性能の悪さを示す指標。
注:良いところを増やしても終わりがないが、悪いところは減らした結果ゼロになるので計算しやすいために性能の悪さを指標とする

ニューラルネットワークの学習の際に、認識精度を“指標”にしてはいけない。 その理由は、認識精度を指標にすると、パラメータの微分がほとんどの場所で 0 になってしまうからである。
*正解したときに0を出力ではなく、間違えたときにどれだけ違うのかが出力された方が性能がわかりやすい

感想

やっと難しい数学の話から概念的な話に戻って来た、こっちの方がまだ理解ができる。
この勉強会を身のあるものにするためにせめて概念的というか理論的な内容は押さえておきたいところ。


1 Star2 Stars3 Stars4 Stars5 Stars (まだ評価されていません)
Loading...
      この投稿は審査処理中  | 元のサイトへ