ニューラルネットワーク

1/29ページ

Swarmingって何?

HTM(hierarchical temporal memory)は大脳の新皮質の構造をヒントにしたニューラルネットワークの構成技法だ。 HTMでパターンを学習し、パターン以外のもの(anomaly)を検出することができる。 numentaはHTMの機能を実装したライブラリをnupicとしてgithub.com上に公開している。商用には特許がらみで許諾をとる必要はあるが、個人が学習のためにいじっても問題はない。 しかし、実際にデータを持 […]

誤差逆伝播法のノート

はじめに ※)「目標関数」をより一般的な名称である「損失関数(Loss Function)」表記に改めました.(2015Oct19) 誤差逆伝播法(以下,Backprop)は多層パーセプトロンを使う人にとってお馴染みのアルゴリズムですよね. いや,これだけ有名なアルゴリズムなのでちょっとネットで探してみれば沢山解説を見つけることが出来るのですが,Backpropを予測誤差の最小化に適用する場合の説明しかみつからないんです.(とはいえ,P […]

Chainerを用いた簡単なニューラルネットワーク実装〜データの準備編〜

前回から深層学習のフレームワークであるChainerを使って実際にニューラルネットワークを構築する記事を書いています. 今回は 1.データの準備 2.モデルの記述 3.最適化アルゴリズムの設定 4.学習 5.結果の出力 のうち 1.データの準備 について書いていきます. Irisデータ 今回はサンプルデータとしてIris(アヤメ)のデータを用います.機械学習ではよくIrisのデータが用いられるようです. このIrisのデータはPytho […]

ニューラルネットワークとは

前回に引き続き、深層学習について私が勉強していることをメモしていきます。 今回はニューラルネットワークについてです。 相変わらず自分でも書いてて「???」となることがあるので誤ったことが書いてあったら訂正していただけたら幸いです。 ニューラルネットワーク概要 上の図は簡単なニューラルネットワークの構成図です。 -入力層 -隠れ層 -出力層 から構成されます。入力層と出力層は1層だけですが、隠れ層の数は任意です。(この隠れ層の数をパラメー […]

【論文シリーズ】強化学習と深層学習を組み合わせる

原文 強化学習における自己符号化器付き深層ニューラルネットワーク(Deep Auto-Encoder Neural Networks in Reinforcement Learning) Sascha Lange and Martin Riedmiller (2010) 1. 要約 (メモリ基盤の)バッチ強化学習(Reinforcement Learning; RL)アルゴリズムを考案した。これにより、自己符号化器でDNN (Deep […]

Michael Nielsen著のオンライン書籍「ニューラルネットワークと深層学習」の翻訳に参加しました

日本語訳に参加させていただいた書籍は下記のリンクから読めます! オリジナル書籍:Neural Networks and Deep Learning 日本語版書籍:ニューラルネットワークと深層学習 量子コンピューティング分野の物理学者Michael Nielsenという方の執筆したオンライン書籍です。 この書籍の内容はニューラルネットの入門者向けとなっています。 「なぜ?」の部分について詳しく、そしてとても分かりやすく記述されていておすす […]

自然非言語処理第17日目:人間のモデル化

これまで人間と機械がコミュニケーションする方法について考えてきました。 これはあくまで人間は機械と違うものであるという前提のもとに説明してきました。 しかし、いっそのこと、人間のコミュニケーションする側面だけを切り取り、 人間は機械の一種であると仮定してみたら、 コミュニケーションする方法が機械と人間で同一のモデルにて記述できるので、 わかりやすいのではないでしょうか。 そこで今回は今後やこれまでの説明がわかりやすくなるように 人間のモ […]

3日目 ニューラルネットワークをChainerに変換しながら学ぶ(その1)

3日目は、PythonでつくったニューラルネットワークをChainerで変換することで、Chainerのファンクションを理解していくことを勉強します。 参考にしたのは、このページです。非常に勉強になります。 (本当は、ページそのものを貼り付けたいのですが、Markdownでの記述方法がわからないため、単純にリンクとしています。) ネットワークは、単純に前の記事と同じく、入力層、隠れ層、出力層が3層のネットワークです。ニューラルネットワー […]

Deep Learning のための Multi Layer Perceptron (数学的基礎から学ぶ Deep Learning with Python; MPS Yokohama Deep Learning Series)

目的 MLP (Multi Layer Perceptron) を Python3 で Numpy と Scipy のみを使って作成する。また、実際の例として手書き数字データベース MNIST を用いて、手書き数字画像のクラス分類を行う MLP の構築を行う。 環境 ソフトウェア バージョン Python 3.5 Numpy 1.10 Scipy 0.16 Matplotlib 1.5 tqdm 4.7 python-mnist 0.3 […]

ニューラルネットワークをFPGA実機で動かした

概要 以前,「FPGA上で動くニューラルネットワーク・ジェネレータを作った」で公開したニューラルネットワーク・ジェネレータで出力したソースコードをFPGA実機Atlas-SoC(DE0-Nano-SoC)で動かしてみました. リポジトリはここ https://github.com/kotauchisunsun/DE0_NN ライセンス Affero GPL v3 機能 DE0-Nano-Socのスイッチを入力,LEDを出力としてニューラ […]

1 29