人工知能ディープラーニング機械学習のための数学 [無断転載禁止]©2ch.net

■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん
垢版 |
2016/12/27(火) 12:09:04.01ID:MgmqZKtO
人工知能ディープラーニング機械学習のための数学
724デフォルトの名無しさん
垢版 |
2018/08/17(金) 21:51:00.47ID:L+Oghf1D
>>723
試してみたけど無理っぽいです
725デフォルトの名無しさん
垢版 |
2018/08/18(土) 11:14:12.66ID:TgZCKLMK
学習してラジアン入力の方が使いやすいとか指示してくれるAIの方がうれしい
2018/08/18(土) 12:03:29.25ID:XOnooV72
θ mod 360 を入力すればいいのでは
2018/08/18(土) 12:58:05.26ID:sJcYZydr
教師データの分布から外れた値を推定できないのは当然のこと
728デフォルトの名無しさん
垢版 |
2018/08/18(土) 15:11:17.07ID:VPacy8Qu
これやるときに画像サイズが奇数だったらどうするんですか?
https://www.google.co.jp/amp/s/deepage.net/amp/deep_learning/2016/11/07/convolutional_neural_network

https://i.imgur.com/Av7YjNO.jpg
2018/08/18(土) 15:13:20.87ID:ZTfsOHbf
端っこを捨てるか、端っこと同じデータを追加する
730デフォルトの名無しさん
垢版 |
2018/08/18(土) 16:04:57.24ID:VPacy8Qu
ストライドを1にしたら、微小な位置に対する位置の頑健性が低くなりますよね?
731デフォルトの名無しさん
垢版 |
2018/08/18(土) 16:06:50.91ID:VPacy8Qu
それと、結局>722の答えとしてはどうなりますか?
2018/08/18(土) 17:02:20.81ID:iT5nZqsR
プログラマーのなかには、解をひとつ見つけると、別の解の模索をしないまま、自分の知ってる1つの解だけが唯一の解だと断定したがる、頭のわるい人がいます。どうも彼らは、高校数学の知識が、まったく思考力に結びついてないらしいです。

そして、このような論理的思考力のひくい頭のわるいプログラマーにかぎって、「プログラマーには数学が重要だ! 数学教育は論理性を養う!」とか言ってたりしますので、とことん呆れます。
2018/08/18(土) 17:28:56.93ID:c7eNhY+n
ただ頭が悪いだけだろ
734デフォルトの名無しさん
垢版 |
2018/08/18(土) 19:00:13.65ID:IyhzoKxX
>>732
ほんそれ+1
2018/08/18(土) 19:25:31.95ID:VeWEqIaW
関係ないよ、数学は数学、といってもたいした数学をやっていないんだろうけど(笑)
2018/08/18(土) 19:30:52.21ID:VeWEqIaW
狭い世界しか知らないのに微積分程度の知識で偉そうな顔をする、理解不能w
737デフォルトの名無しさん
垢版 |
2018/08/20(月) 08:45:14.02ID:kpNK1Ja8
>>721
Cは遅いからアセンブラにしてくれ。
738デフォルトの名無しさん
垢版 |
2018/08/20(月) 13:12:28.39ID:h5lNG6L+
アセンブラが速いのは昔の話
2018/08/20(月) 13:28:48.06ID:EpIzDeqq
今のアセンブラは遅いのか
2018/08/20(月) 13:46:43.73ID:FFhVJI7V
CPUが速い(笑)
2018/08/20(月) 14:11:56.42ID:M28ffXzp
courseraでMLの授業取ってるんだけど、
θ'X のoctave実装が、X * θ になってるんだけど、
どうして逆になってるの?'は転置です。
そのままθ' * X だとサイズエラーになります。
2018/08/20(月) 14:14:14.12ID:8bqZlRts
θか疎行列だとか?
743デフォルトの名無しさん
垢版 |
2018/08/20(月) 14:22:58.02ID:Ylg8Xkap
サイズエラー当たり前
2018/08/20(月) 14:50:22.84ID:M28ffXzp
サイズを調べると、θ は 2 * 1 X は 97 * 2 でした。
Xはテストデータの行列のようです。
ちなみに最急降下法の実装です。

θ' * Xがエラーになるのは、分かるのですが、モデルではθ'Xでと書いてあって、混乱しています
745デフォルトの名無しさん
垢版 |
2018/08/20(月) 14:55:15.55ID:H+/PCJgC
θ * X'
2018/08/20(月) 23:16:53.02ID:rhPo0SuQ
線形代数の勉強しろ
747デフォルトの名無しさん
垢版 |
2018/08/21(火) 10:32:47.84ID:tkrZv4s7
OpenGLとDirectXでは順序が違うアレか
2018/08/22(水) 16:59:30.98ID:jh63+gzv
m×n行列とn×p行列の積がm×pになるくらい基礎中の基礎だろ
749デフォルトの名無しさん
垢版 |
2018/08/22(水) 17:01:54.86ID:Q4k/bgn4
数学で良く使われる線形代数とMLのそれは違うからな
2018/08/22(水) 19:04:20.85ID:3fAu/IG4
>>749
違うの?
751デフォルトの名無しさん
垢版 |
2018/08/22(水) 20:23:14.92ID:UCPmMQzw
一緒だよ
2018/08/22(水) 20:43:45.93ID:qbOJHKbO
>数学で良く使われる線形代数
お察しw
753デフォルトの名無しさん
垢版 |
2018/08/23(木) 09:11:55.04ID:29gBK1aD
NHKω
754デフォルトの名無しさん
垢版 |
2018/08/23(木) 15:06:06.83ID:Yll/HlKL
>>744
それ線形代数になれてないと、本当に最初混乱するけど
冷静にサイズチェックして行列の掛け算が実行可能なやり方にすればできる

一般化して簡単化してる講義ではnx1行列のθとXを想定してるから
スライドでもθ[θ1;θ2;θ3;....θi]、X[x1;x2;x3;....xi]って列ベクトル(orたまに行ベクトル)で表記してる
その場合、θ' has size 1 x n、X has size n x 1になって
θ' * Xで左からかける行列の列数と右の行数が一致してるから計算できる

要はθとXで内積取ればいいって考えれば,X has size m x 1、θ has size 1 x 1に
インターセプト項を加えて、Xがm x n行列、θがn x 1行列になった時
これらの行列の内積を取るには、(θ' * X') or X * θを計算すれば良いと分かるっていう
講義中の線形代数のチュートリアルでやってる簡単な話になる
755デフォルトの名無しさん
垢版 |
2018/08/23(木) 15:14:07.22ID:Yll/HlKL
てか俺もまだMLやってる途中なんだけど
同じ教授のディープラーニングコースの方をやり終えた人いる?
いたらどの程度日本語字幕付いてるか教えてほしい
1週間の無料期間だとちょっとしか見れないだろうから

日本語字幕ありとなしじゃ倍以上理解に時間かかるわ…
2018/08/23(木) 15:41:42.39ID:nRYvmGHy
行列の内積や積の意味さっぱりわからずに単に数字の操作としてしかやってないからそんなつまんないところで躓くんだろうな
やっぱ線形代数の入門書ぐらいは読んどいた方がいい
2018/08/23(木) 15:45:33.72ID:9jntmGn7
■クソマウンティング警戒情報■

クラス1 大学の授業で線形代数をやっただけのおっさん
クラス2 大学には行かなかったが線形代数を独習したおっさん

このあたりが出没してるので気をつけましょう。
2018/08/23(木) 15:46:40.80ID:NPcuqlt3
AI関係はヤバいのがいるという噂は本当だった
2018/08/23(木) 15:57:35.51ID:dSKkSrpr
線形代数知らないと大損だよ!

人工知能
ディープラーニング
機械学習
だけじゃないよ!

プログラミングでかなり重要
2018/08/23(木) 15:58:56.38ID:0ACQCzra
そりゃ線形代数は大事だよ!!!
761デフォルトの名無しさん
垢版 |
2018/08/23(木) 16:15:33.38ID:+UveuQfQ
>>757
ここは高卒率高い
762デフォルトの名無しさん
垢版 |
2018/08/23(木) 20:57:35.73ID:n9wdMl+k
行列学ぶにはには画像処理がいいって、
それ一番言われてるから。
データサイエンスから派生してOPenCV
始めたけどかなり楽しいゾ。
数式見るだけより画像がどう変化するかを
確認するとアルゴリズムの意味や目的が
はっきりわかんだね。
2018/08/23(木) 21:42:01.92ID:hpTFsjjR
結局ライブラリ使ってるから数学関係ないよね
764デフォルトの名無しさん
垢版 |
2018/08/23(木) 22:27:21.08ID:n9wdMl+k
ライブラリを使うには数学知識が必須
なんだよなぁ…
例えばnumpyを使うのに行列知識ゼロじゃ
使いこなせない。
逆にnumpyを使っているうちに行列への
理解が深まるってこともあるし。
2018/08/24(金) 01:04:01.12ID:1PBeUR3/
まあサラスの公式とかは覚える必要ないよね
766デフォルトの名無しさん
垢版 |
2018/08/24(金) 03:41:37.45ID:6wpy6wRV
回答がつくか自信がないですがいくつか質問です
@ 右上の▽E(w)の定義を教えてください
A なんで式の3行目のβにはtがくっついているのですか

https://i.imgur.com/cqdg8pC.jpg
2018/08/24(金) 05:08:08.95ID:c+mh3mBZ
>>569
もちろんある程度大学の数学をやった上で言ってるんだと思うんだけど
ある程度やった上での発言だとしたら頭が悪いわ
768デフォルトの名無しさん
垢版 |
2018/08/24(金) 05:59:54.55ID:/QW9Joy2
>>765
行列式の計算とかnumpyで楽チン。
2018/08/24(金) 06:29:31.37ID:dwzt+F5U
>>766
>@ 右上の▽E(w)の定義を教えてください
損失関数Eの勾配
=δE/δw

>A なんで式の3行目のβにはtがくっついているのですか
学習の経過に従って、mとvの寄与度を調整して学習を安定させる
2018/08/24(金) 06:32:34.83ID:dwzt+F5U
∂E/∂w だった(偏微分記号)
2018/08/24(金) 06:56:46.17ID:dwzt+F5U
Aの補足

学習の初期段階でtが小さい時にmとvを調整して学習を安定させる効果がある。

この式の分母はtが大きくなるとほぼ1になりほとんど変化しなくなる。
2018/08/24(金) 09:07:03.58ID:1nJvNU0i
>>766
BPから勉強しろ
2018/08/24(金) 12:44:28.77ID:TTydjelR
まさか今更微積や線形代数の復習する羽目になるとは
774デフォルトの名無しさん
垢版 |
2018/08/24(金) 12:58:10.52ID:6wpy6wRV
>>766です
ありがとうございます、解決しました

tが0から始まるとすればbeta^0でそっから1引いたものが分母になるから分母0にならないですか?
2018/08/24(金) 13:09:28.12ID:KZ7MNsvQ
1から始めればよい
776デフォルトの名無しさん
垢版 |
2018/08/25(土) 18:31:41.77ID:Dxvsv0A8
>>775
ありがとうございました!

下層からの誤差って具体的に何ですか?
https://i.imgur.com/y0O5glz.jpg

https://qiita.com/eijian/items/c947fb6b5e7a49858fb4
777デフォルトの名無しさん
垢版 |
2018/08/25(土) 22:43:44.04ID:xNcAdL4l
>>776
その畳み込みの次にある層からの誤差
2018/08/26(日) 00:28:46.57ID:ZbBrZXXn
誤差逆伝播法では誤差が下層から上層に伝えられていく。誤差が具体的に何かと聞かれても、正解値と推定値の差を順次上層に向かって伝えられていく値としか答えようがない。
779デフォルトの名無しさん
垢版 |
2018/08/26(日) 00:35:44.23ID:czFWrRej
>>777
例えば畳み込み層の前がプーリング層だった場合具体的に何が誤差になりますか?
2018/08/26(日) 00:59:20.08ID:ZbBrZXXn
例えばMAXプーリング層では、下層から伝えられた誤差(偏微分値)を、順伝播時のMAXだったノードに伝えられる。MAX以外のノードには0が伝えられる。このようにそのノードの性質によって何が伝えられるかは変わってくる。
781デフォルトの名無しさん
垢版 |
2018/08/26(日) 02:15:36.01ID:czFWrRej
>>780
そのプーリング 層の前が全結合層だった場合その層での誤差は何になるのでしょう?全結合層での入力層と隠れ層の間の重みとかですか?
782デフォルトの名無しさん
垢版 |
2018/08/26(日) 02:36:56.87ID:DVI2ghbE
東京大学理学部数学科に入って、数論幾何学を勉強したい。
でも脇見恐怖症だしなぁ・・・・・。
783デフォルトの名無しさん
垢版 |
2018/08/26(日) 08:52:46.06ID:Eme/jpQ6
>>781
全結合部の出力層で誤差関数で誤差を求めて後は入力側に向かってその誤差を各ニューロン毎に重み掛け算して分配していく。
分配が終わったら誤差、学習率等を使って各重みを更新。間違ってたら指摘お願いします
2018/08/26(日) 09:59:18.87ID:1PWWH1+1
>>783
「重み掛け算」というのが違う。どのように分配していくかは、順伝播時ノードの処理によって変化する。足し算ノードなら何もかけずに逆伝播させるし、掛け算ノードであれば逆ノードの値を掛けて逆伝播させるし。
2018/08/26(日) 10:05:05.45ID:1PWWH1+1
上記についてはこのページが詳しいかな
ttps://qiita.com/t-tkd3a/items/031c0a4dbf25fd2866a3
2018/08/26(日) 12:56:14.32ID:lds9ox+q
リアルプログラムでは学習した結果ってどうやって永続化してるの?
ファイルに書き出すの?
2018/08/26(日) 13:49:35.32ID:1PWWH1+1
パラメータをファイルやDBに書き出します。
788デフォルトの名無しさん
垢版 |
2018/08/26(日) 13:55:39.86ID:u+wmgHES
基本的には各サンプルを通して損失関数を最小化するθ(重み)が学習成果なわけだから
そのθをファイルに保存する
途中からの場合θのファイルをロードする
モデルによって他にドロップアウトやRegularization値など自動で最適化してるハイパーパラメータがあればそれもファイルに保存する
789デフォルトの名無しさん
垢版 |
2018/08/26(日) 20:58:22.32ID:czFWrRej
>>785
ありがとうございます!
2018/08/26(日) 23:47:20.20ID:lds9ox+q
>>787
>>788
サンクス
791デフォルトの名無しさん
垢版 |
2018/08/27(月) 12:03:01.85ID:Q4eMB8Ps
起動に15時間
シャットダウンに7時間
792デフォルトの名無しさん
垢版 |
2018/09/01(土) 12:14:47.04ID:wGe/Loro
CNNの畳み込み層でも活性化関数使うのが普通なんですか?

あと3次元フィルタを使ってますが、私のフィルタは2次元です。一度グレイスケールにしてからフィルタ適用しているので...この3次元フィルタを使うことの方が普通なのかな?
http://iup.2ch-library.com/i/i1931933-1535771487.jpeg
http://iup.2ch-library.com/i/i1931932-1535771487.jpeg

https://www.google.co.jp/amp/s/deepage.net/amp/deep_learning/2016/11/07/convolutional_neural_network

あと1層目でエッジ検出はわかるのですが、次の層でテクスチャ検出できるのが意味がわかりません、テクスチャって水玉模様とかそんなのですよね?
http://iup.2ch-library.com/i/i1931934-1535771654.jpeg
3次元フィルタを使うことに関しては特徴マップが何層もあるから?
2018/09/01(土) 23:34:32.22ID:gvHsCwll
全部チューニングの問題。その設定で精度のが上がれば、そのタスクにとっては「正しい」設定となる。
2018/09/01(土) 23:35:20.62ID:gvHsCwll
チューニングというより設計の問題かな。
795デフォルトの名無しさん
垢版 |
2018/09/02(日) 18:18:25.17ID:Gf+N3VgJ
色々深層学習のライブラリ弄ってて、モデルそのものを弄りたくなってきて調べたけど

既存の深層学習のライブラリ全部、iter中に計算速度稼ぐことメインに考えてて
気軽に独自モデル試せるようなもんじゃないんだな
ライブラリ使って新しいモデル作ってる研究者は低レベルで殴り合ってるわけだ
ソース見てもモジュール化されすぎてて全部理解するのには相当時間かかる

独自にモデル作ってる人らには頭が下がるわ
フルスクラッチでやったほうが実装そのものは相当楽だろ
でも今どきフルスクラッチでDNNの新モデル作ったところで研究者には見向きもされないんだろうな
796デフォルトの名無しさん
垢版 |
2018/09/03(月) 01:01:43.69ID:esF28k94
そうでもない
がんがれ
2018/09/07(金) 20:14:05.61ID:bOuttf63
https://mainichi.jp/articles/20180905/k00/00e/040/319000c
798デフォルトの名無しさん
垢版 |
2018/09/08(土) 17:42:16.54ID:RrQSE86D
似非サイエンス0でやってた
799デフォルトの名無しさん
垢版 |
2018/10/06(土) 11:09:34.88ID:KmIbUzui
NHK教育を見て56088倍賢く三連休
http://nhk2.5ch.net/test/read.cgi/liveetv/1538780245/
800デフォルトの名無しさん
垢版 |
2018/10/08(月) 11:30:39.16ID:+5qyKWRv
めも
https://www.anaconda.com/blog/developer-blog/tensorflow-in-anaconda/
2018/10/08(月) 13:54:24.56ID:Pg4k0kTf
memorandum
802デフォルトの名無しさん
垢版 |
2018/10/24(水) 17:33:34.15ID:uzzb7okB
既存の数学的アプローチでは汎用人工知能は無理。
新しい数学を創造する必要がある。
2018/10/24(水) 19:03:25.41ID:+UZVhUuu
人間の脳の学習能率に対して、ディープラーニングでは人間ではあり得ない量のデータを力技で教え込んでいるという現状を考えれば既存理論では実現不可能なのは明白だな
根本的にやってることが違う
2018/10/24(水) 19:23:11.47ID:Tp5xd7NK
数学は万物を定量化して表すもの

数学に出来ないのはヒルベルトのように、解く方法が解らない問題と
世界の誰も未だに気づいていない問題
2018/10/24(水) 20:38:49.03ID:JHmeQiWz
NS方程式w
2018/10/25(木) 01:53:03.16ID:DXNVkP/m
そのうち人工知能の性能や危険性を監査する方法が必要になる
監査もAIにして相互に進化させる
人間のはるか上を行くAIになりそう
2018/10/25(木) 08:07:04.46ID:yGYVJ0zR
>>806
>監査もAIにして相互に進化させる
こういう自己学習はすべてのAIにて有効とは限らない、と思いますが
808デフォルトの名無しさん
垢版 |
2018/10/25(木) 11:25:06.41ID:5Cy/pQlU
単にラグランジュとか●次スプラインとかで全点通す多項式作るようにしてるんだろうけど
こういうのって機械学習でも同じパラメータが出現するのだろうか
https://pbs.twimg.com/media/Dp8U1ioVYAEsXf3.jpg
https://twitter.com/yori_shirou/status/1053611678292570113
https://twitter.com/yori_shirou/status/1053611678292570113/photo/1
(そういう学習させればそうなるんだろう)
https://twitter.com/5chan_nel (5ch newer account)
809デフォルトの名無しさん
垢版 |
2018/11/27(火) 10:18:08.02ID:Rh+mKowB
NNのパラメータが十分多ければSGDでも多項式時間で最適解に収束する事が証明されたな
https://arxiv.org/abs/1811.03962
810デフォルトの名無しさん
垢版 |
2018/11/30(金) 20:30:28.58ID:1rBmpsWQ
十分多ければwww
2018/11/30(金) 22:07:26.54ID:aXieu+F/
自然な仮定だろ?
812デフォルトの名無しさん
垢版 |
2018/12/01(土) 12:32:12.07ID:ddsFX+Ib
ε-δ論法での「十分小さければ」みたいによくある表現だよね
2018/12/01(土) 14:53:57.91ID:ESkZNxmJ
t分布で自由度が十分大きければ正規分布になるとか、割とあちこちで十分大きければ論法は使われる
「十分大きい」というのが現実的なサイズなら何の問題もないし非現実的なサイズなら机上の空論というだけのこと
814デフォルトの名無しさん
垢版 |
2018/12/01(土) 18:36:48.82ID:vZu4rQev
誤差曲面には極小値や鞍点が無数にあるにも関わらず、SGDで最適解に辿り着けてしまうのは自明では無い
経験的に知られていたが謎だった事が理論的に解明された事に価値がある
あと(指数ではなく)多項式時間と分かった事も大きいと思う
815デフォルトの名無しさん
垢版 |
2018/12/05(水) 18:35:39.05ID:kX9gokKe
こっちだったか
http://www.itmedia.co.jp/news/articles/1710/10/news040.html
816デフォルトの名無しさん
垢版 |
2018/12/12(水) 22:46:51.99ID:0lKVJ1Zp
初歩的なもので申し訳ありませんが
ゼロから作るDeep Learningの中の数式の変形で以下のような変形がありました。
どう変形したらこうなるのはわからないのですがどなたか教えていただけないでしょうか?

c exp(x) = exp(x + log c)
2018/12/12(水) 22:56:13.04ID:+Sf0mSLh
定義から追っていけばわかるだろ?

expてのはeを何回掛けたか
logはその逆

exp(log c) = cはcが特殊な値でない限り常になりたつ。

exp(a)exp(b)はeをa回掛けたものにさらにeをb回掛けることになる
これはexp(a+b)に等しい
818デフォルトの名無しさん
垢版 |
2018/12/12(水) 23:11:36.04ID:0lKVJ1Zp
>>817
ありがとうございます。
言われてみればなんで気づかなかったんだろってレベルでした。
819デフォルトの名無しさん
垢版 |
2018/12/12(水) 23:22:27.88ID:1Fc61En1
ln 左辺
 = ln (c * e^x)
 = ln c + ln e^x
 = ln c + x
ln 右辺
 = ln e^(x + ln c)
 = x + ln c

高校の算数で分かる
2018/12/13(木) 00:31:25.96ID:mMIcaeGH
>>816
c = exp(log (c))

まずこれを理解して

c・exp(x) = exp(x)・exp(log(c))
= exp(x + log(c))
2018/12/13(木) 09:30:18.60ID:MB2eDcb0
>>816
exp(x + log c)=exp(x)*exp(logc) 指数法則:exp(x+y)=exp(x)exp(y)
=exp(x)*c expとlogは互いに逆関数なので順番に作用させると元に戻る:x=exp(logx)
822デフォルトの名無しさん
垢版 |
2018/12/13(木) 12:19:59.72ID:zFPTCGev
c exp(x) = exp(x + log(c))
log(c exp(x)) = log(exp(x + log(c)))
log(c) + log(exp(x)) = log(exp(x + log(c)))
log(c) + x = x + log(c)
823デフォルトの名無しさん
垢版 |
2018/12/17(月) 22:36:41.36ID:hRfkLohO
ゼロから作るDeep Learningの中のAffineレイヤの部分で
行列の積 
X・W
をXで微分したものが
Wの転置行列
になっており、
X・W
をWで微分したものが
Xの転置になっていますがこの辺の説明がないためなぜそうなるのかわかりませんでした。
この辺は数学のどの部分をやれば理解できますでしょうか?いい参考書があれば教えてほしいです。

後同じAffineレイヤのバッチ対応版で、バイアス部分がすべてのバッチ分の加算になっていますが
これってどう解釈すればいいのでしょうか?
いまいちなぜすべてを加算するのか理解できませんでした。
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。