探検
【統計分析】機械学習・データマイニング26
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん (ワッチョイ efda-zBa2 [223.217.165.150])
2019/09/15(日) 09:23:06.34ID:bjsiNRs40機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
Machine Learningを用いた論文一覧2018
https://shiropen.com/seamless/machine-learning/2018
2017年のディープラーニング論文100選
https://qiita.com/sakaiakira/items/f225b670bea6d851c7ea
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング23
https://mevius.5ch.net/test/read.cgi/tech/1551352040/
-
【統計分析】機械学習・データマイニング25
https://mevius.5ch.net/test/read.cgi/tech/1561568018/
【統計分析】機械学習・データマイニング24
https://mevius.5ch.net/test/read.cgi/tech/1556674785/
-
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:----: EXT was configured
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:: EXT was configured
196デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.152.98])
2019/10/13(日) 00:57:27.47ID:0ePwtCDKa 各店の平均化する前の採点が同一母集団に従うという仮定に無理がありすぎる
例えばラーメン屋とスイーツ店の採点者が同じ傾向の採点するなんて仮定は不自然
例えばラーメン屋とスイーツ店の採点者が同じ傾向の採点するなんて仮定は不自然
197デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156])
2019/10/13(日) 00:59:42.54ID:kaSZg9r20198デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.128.168])
2019/10/13(日) 06:54:46.01ID:ObLeezZqa >>159
Juliaでしょう。
Juliaでしょう。
199デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.128.168])
2019/10/13(日) 06:56:55.49ID:ObLeezZqa >>160
Flux
Flux
200デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 07:21:13.99ID:Fxu1r5BT0 >>195
大数の法則は標本数を増やすと標本平均が母平均に近づくということ
中心極限定理は平均値の分布に関する定理
食べログの評価の数が30になった時点で平均値を計算して
一度リセットするのを繰り返す
その平均値の分布は正規分布に近づく
今の評価の分布がその店に行く人の評価の分布を表している
のであれば今の評価分布から30標本を取って平均値を求める
操作を復元抽出で繰り返しても同じような結果になるだろう
大数の法則は標本数を増やすと標本平均が母平均に近づくということ
中心極限定理は平均値の分布に関する定理
食べログの評価の数が30になった時点で平均値を計算して
一度リセットするのを繰り返す
その平均値の分布は正規分布に近づく
今の評価の分布がその店に行く人の評価の分布を表している
のであれば今の評価分布から30標本を取って平均値を求める
操作を復元抽出で繰り返しても同じような結果になるだろう
201デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 07:23:54.12ID:Fxu1r5BT0 ある店の評価分布は標本数が多くなっても正規分布になるとは言えない
分散が広くなるのはその店のサービスや品質が安定していない事が原因になりうる
その店の特徴が分布に反映される
同様に店を評価する側の特徴も反映されるだろう
分散が広くなるのはその店のサービスや品質が安定していない事が原因になりうる
その店の特徴が分布に反映される
同様に店を評価する側の特徴も反映されるだろう
202デフォルトの名無しさん (ブーイモ MM89-ToAo [202.214.125.165])
2019/10/13(日) 07:58:04.98ID:S6cUkNQoM 深層学習の凄いことのひとつは特徴量を人が設計する必要がない、と本とかに書いてありますが、どう理解すればいいのか分からず教えてください!
ここでいう深層学習とはニューラルネットのことですか?(線形回帰やSVMと違って説明変数を人間が決めてないから? )
ここでいう深層学習とはニューラルネットのことですか?(線形回帰やSVMと違って説明変数を人間が決めてないから? )
203デフォルトの名無しさん (ワッチョイ 8302-o74w [101.142.8.160])
2019/10/13(日) 08:07:52.14ID:A69S9ntC0 レビューを投稿する行動を取る時点で母集団にサンプルバイアス
204デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156])
2019/10/13(日) 08:55:43.76ID:kaSZg9r20 >>201
言ってることの一つ一つは正しいことは理解できるんだけど、何が言いたいのか理解できないんだ
食べログが評価を操作しているかどうか、は今説明してくれた事を駆使すれば判別できるんだろうか?
あるいは、Twitterの書き込みのおかしさ、は今説明してくれた事を駆使すれば、ココがおかしいと指摘されるんだろうか
言ってることの一つ一つは正しいことは理解できるんだけど、何が言いたいのか理解できないんだ
食べログが評価を操作しているかどうか、は今説明してくれた事を駆使すれば判別できるんだろうか?
あるいは、Twitterの書き込みのおかしさ、は今説明してくれた事を駆使すれば、ココがおかしいと指摘されるんだろうか
205デフォルトの名無しさん (アウアウカー Sa51-vt6R [182.251.195.232])
2019/10/13(日) 09:26:19.57ID:vNAU+AUMa >>201
各店舗の分散は各店舗の分布には影響しても全店舗の平均値の分布には影響しないでしょ
各店舗の分散は各店舗の分布には影響しても全店舗の平均値の分布には影響しないでしょ
206デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.154.80])
2019/10/13(日) 10:08:21.52ID:uKg8mtfTa 中心極限定理はあくまで「同一の母集団から得た独立な確率変数であれば、十分な数の平均値を集めたものの分布が正規分布に近似できる」というもの
全店舗の採点者が同一の基準に従う採点を行うという前提が成り立たなければ成立しない定理
全店舗の採点者が同一の基準に従う採点を行うという前提が成り立たなければ成立しない定理
207デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156])
2019/10/13(日) 10:56:42.24ID:kaSZg9r20 >>206
個々の採点者が同じ基準でないのに中心極限定理を持ち出しているのがおかしいと主張しているわけか、なるほど
同じ基準ではないにしろ、少し幅をつけてみよう
個々の採点者はある得点を中心に正規分布で配点する、もしくは一様分布で採点する、あるいは同じ点数しかつけないものとする
正規分布で採点する者は、正規分布の合成が正規分布になることから、平均値の分布もまた正規分布
一様分布で採点する者は、分布関数の底上げにはなるが平均値には影響を与えない
同じ点数しかつけない者も、平均値そのものをずらす事にはなるが正規分布の形は歪めない
つまるところ上記の前提が成り立つ場合には、平均値の分布は厳密に正規分布になる
毎回1点で、たまに4点をつけるような人が大量にいないと、この評点と言う平均値分布を正規分布から歪めるのは難しいように思う
個々の採点者が同じ基準でないのに中心極限定理を持ち出しているのがおかしいと主張しているわけか、なるほど
同じ基準ではないにしろ、少し幅をつけてみよう
個々の採点者はある得点を中心に正規分布で配点する、もしくは一様分布で採点する、あるいは同じ点数しかつけないものとする
正規分布で採点する者は、正規分布の合成が正規分布になることから、平均値の分布もまた正規分布
一様分布で採点する者は、分布関数の底上げにはなるが平均値には影響を与えない
同じ点数しかつけない者も、平均値そのものをずらす事にはなるが正規分布の形は歪めない
つまるところ上記の前提が成り立つ場合には、平均値の分布は厳密に正規分布になる
毎回1点で、たまに4点をつけるような人が大量にいないと、この評点と言う平均値分布を正規分布から歪めるのは難しいように思う
208デフォルトの名無しさん (ワッチョイ 9501-o74w [126.25.129.72])
2019/10/13(日) 12:13:54.05ID:pJwii1Hg0209デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 12:41:16.37ID:Fxu1r5BT0 >>205
平均値についても同様の事が言える
仮に評価する側が同じだとしても
店舗の特徴によって分布の形は変わる
分布の形を見る事で店舗の特徴を把握してその店を利用するかどうかを事前に利用者が判断できるようにするサービス
が本来目標としたものかもしれない
分布を意図的に操作する事で金儲けに利用しようとした疑いが上がっているという問題だと思う
平均値についても同様の事が言える
仮に評価する側が同じだとしても
店舗の特徴によって分布の形は変わる
分布の形を見る事で店舗の特徴を把握してその店を利用するかどうかを事前に利用者が判断できるようにするサービス
が本来目標としたものかもしれない
分布を意図的に操作する事で金儲けに利用しようとした疑いが上がっているという問題だと思う
210デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 12:44:15.71ID:Fxu1r5BT0 >>207
評価尺度はただの順序尺度で間隔尺度ではないだろう
評価尺度はただの順序尺度で間隔尺度ではないだろう
211デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.4])
2019/10/13(日) 12:53:02.60ID:sm0sVhGqM212デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 13:19:59.66ID:kaSZg9r20 いかん、ラーメン屋の得点とスイーツ屋の得点を合わせて平均するとか謎なことをしていた
改めてデータに立ち戻ろう
3.6にピークがあるのは、とりあえず4に入れておこう層が2/3くらいいて、残りの1/3がとりあえず3に入れておこうということ4*2/3+3*1/3=11/3=3.67で説明できそうだ
逆に言えば、ここにピークが立つのは「とりあえず3か4に入れとけ層」が一定数いるということで、これは直感と合うのであまり怪しくはなさそうだ
次に3.8にギャップがある理由を考えてみる
元のデータを見た所、2つのガウス関数の和で表現できそうだ
一つは平均3.6で3σが0.3にあるピーク、もう一つは平均3.75で3σが0.05のピーク
こう仮定すると3.8にギャップができているのは、この2つ目のガウス関数の裾野に原因がある
この2つのガウス関数が意味するところは
ラーメン屋に通う「オヤジ層」とスイーツ屋に行く「レディー層」の違いを表すのか、
あるいは「関東に住んでいる層」と「関西に住んでいる層」を地域差表すのか、
はたまた疑惑の「操作されていない層」と「操作されている層」の人為操作の違いを表すのか
ラーメン屋だけの分布、特定地域だけの分布は作れそうだが、疑惑の操作に辿り着くのは難しそうだ
改めてデータに立ち戻ろう
3.6にピークがあるのは、とりあえず4に入れておこう層が2/3くらいいて、残りの1/3がとりあえず3に入れておこうということ4*2/3+3*1/3=11/3=3.67で説明できそうだ
逆に言えば、ここにピークが立つのは「とりあえず3か4に入れとけ層」が一定数いるということで、これは直感と合うのであまり怪しくはなさそうだ
次に3.8にギャップがある理由を考えてみる
元のデータを見た所、2つのガウス関数の和で表現できそうだ
一つは平均3.6で3σが0.3にあるピーク、もう一つは平均3.75で3σが0.05のピーク
こう仮定すると3.8にギャップができているのは、この2つ目のガウス関数の裾野に原因がある
この2つのガウス関数が意味するところは
ラーメン屋に通う「オヤジ層」とスイーツ屋に行く「レディー層」の違いを表すのか、
あるいは「関東に住んでいる層」と「関西に住んでいる層」を地域差表すのか、
はたまた疑惑の「操作されていない層」と「操作されている層」の人為操作の違いを表すのか
ラーメン屋だけの分布、特定地域だけの分布は作れそうだが、疑惑の操作に辿り着くのは難しそうだ
213デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 13:25:37.35ID:Fxu1r5BT0 操作がなかったという帰無仮説を棄却できるかどうかじゃね?
214デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 13:39:33.29ID:kaSZg9r20 >>202
まぁ>>208でも言っているけど画像をCNNで処理することを汎用化して言ってる気はするなぁ
少し古いけど
https://deepage.net/deep_learning/2016/11/07/convolutional_neural_network.html
にある
CNNはこういった特徴を抽出するための検出器であるフィルタのパラメータを自動で学習していく
ということなんだろう
RNNでも同じ話はあるので画像だけってことはないけど、なんでもかんでも特徴量を自動抽出ってことではないよ
まぁ>>208でも言っているけど画像をCNNで処理することを汎用化して言ってる気はするなぁ
少し古いけど
https://deepage.net/deep_learning/2016/11/07/convolutional_neural_network.html
にある
CNNはこういった特徴を抽出するための検出器であるフィルタのパラメータを自動で学習していく
ということなんだろう
RNNでも同じ話はあるので画像だけってことはないけど、なんでもかんでも特徴量を自動抽出ってことではないよ
215デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16])
2019/10/13(日) 13:45:19.51ID:48i2xCpca 三層のニューラルネットワークでは xor を分離できないという問題は
さらに多層になったことで何で解消されたの?
さらに多層になったことで何で解消されたの?
216デフォルトの名無しさん (ワッチョイ e394-P4H7 [115.37.73.212])
2019/10/13(日) 14:17:08.81ID:25TC8kRG0 3.8を超えた評価を3.6に落としてるって仮定したらほぼ同じヒストグラムになる
https://i.imgur.com/NrNIWrn.jpg
平均3.8標準偏差0.5で正規分布を生成して、3.8を超えた評価値を90%の確率で平均3.6標準偏差0.01の正規分布で取り直す操作をした(N=1000)
ただ同じだからと言って>>212のように元データの特徴量ごとの性質の違いを反映しているだけかもしれない
https://i.imgur.com/NrNIWrn.jpg
平均3.8標準偏差0.5で正規分布を生成して、3.8を超えた評価値を90%の確率で平均3.6標準偏差0.01の正規分布で取り直す操作をした(N=1000)
ただ同じだからと言って>>212のように元データの特徴量ごとの性質の違いを反映しているだけかもしれない
217デフォルトの名無しさん (アウアウエー Sa13-P4H7 [111.239.178.130])
2019/10/13(日) 14:21:02.62ID:qY0pTgmia >>213
操作がないという帰無仮説について仮説検定の方法で検証するには操作がない場合の点数の理想的な分布を知っていなければならない
その理想分布に基づいて実際の分布がどの程度ずれているのかを確認するのが仮説検定なのだから
しかしそんなもの知り得ないので検定のしようがない
操作がないという帰無仮説について仮説検定の方法で検証するには操作がない場合の点数の理想的な分布を知っていなければならない
その理想分布に基づいて実際の分布がどの程度ずれているのかを確認するのが仮説検定なのだから
しかしそんなもの知り得ないので検定のしようがない
218デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 14:23:09.86ID:llG9wcVha219デフォルトの名無しさん (ブーイモ MM59-ToAo [210.138.208.219])
2019/10/13(日) 14:45:50.67ID:TJDkUn5hM220デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 15:01:05.43ID:kaSZg9r20 >> 215
細かいけど、まず層の数え方から
入力層は層に数えないので、ANDとORは1層で、XORは2層で表現できる
次にXORはなぜ2層で表現可能か
単純に、AND(正確にはNAND)とORの出力をANDで受ければXORが作れるから
ググったら以下のような図を見つけた
https://www.infiniteloop.co.jp/blog/wp-content/uploads/2017/12/XOR.png
>>218の回答はエレガントだけども、少し説明を加えると
(0, 0) → 0
(0, 1) → 1
(1, 0) → 1
(1, 1) → 0
を分ける直線は2次元平面内では書けないけど、3次元に拡張して
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
を分ける平面はa,b,c,dを適当に決めれば作れる(例えばa=d=0, b=c=1としてz=0.5の平面)
a,b,c,dを適当に決めて分離できるってそんなんアリかよ!?って最初は思うかもしれないけど
そんな純粋な気持ちは最初だけで、どうせa, b, c, dは見ないし分離できたら何でもOKになる
細かいけど、まず層の数え方から
入力層は層に数えないので、ANDとORは1層で、XORは2層で表現できる
次にXORはなぜ2層で表現可能か
単純に、AND(正確にはNAND)とORの出力をANDで受ければXORが作れるから
ググったら以下のような図を見つけた
https://www.infiniteloop.co.jp/blog/wp-content/uploads/2017/12/XOR.png
>>218の回答はエレガントだけども、少し説明を加えると
(0, 0) → 0
(0, 1) → 1
(1, 0) → 1
(1, 1) → 0
を分ける直線は2次元平面内では書けないけど、3次元に拡張して
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
を分ける平面はa,b,c,dを適当に決めれば作れる(例えばa=d=0, b=c=1としてz=0.5の平面)
a,b,c,dを適当に決めて分離できるってそんなんアリかよ!?って最初は思うかもしれないけど
そんな純粋な気持ちは最初だけで、どうせa, b, c, dは見ないし分離できたら何でもOKになる
221デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16])
2019/10/13(日) 18:39:55.88ID:48i2xCpca 二層あれば大抵の関数は模倣できるのに
何でもっと多層が必要なの?
何でもっと多層が必要なの?
222デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 18:43:34.64ID:Fxu1r5BT0223デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 18:44:48.26ID:Fxu1r5BT0 >>218
線型結合してる層を増やすとなぜ高次元になるのかを直感的に判るように説明して
線型結合してる層を増やすとなぜ高次元になるのかを直感的に判るように説明して
224デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 19:30:49.94ID:llG9wcVha225デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 19:32:44.25ID:llG9wcVha >>223
一旦中間層のニューロン数だけの次元を持つ空間を経由できるから
一旦中間層のニューロン数だけの次元を持つ空間を経由できるから
226デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 20:04:55.16ID:Fxu1r5BT0227デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 20:33:11.99ID:llG9wcVha228デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/13(日) 20:44:50.78ID:/3kPh57iM ディープキスのほうがいい!
舌をからませるの
立つよね!
舌をからませるの
立つよね!
229デフォルトの名無しさん (ワッチョイ 9501-qBpa [126.25.131.86])
2019/10/13(日) 20:48:48.51ID:P1vmVh210 >ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない
こんなことを示した論文などない。
よくこんなことをさも証明されたことの如く言えるな。
こんなことを示した論文などない。
よくこんなことをさも証明されたことの如く言えるな。
230デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:28:26.53ID:kaSZg9r20 >>221
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ
直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから
と思うんだが、本当かどうかは分からない
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ
直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから
と思うんだが、本当かどうかは分からない
231デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 21:37:08.64ID:llG9wcVha >>229
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか
232デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:45:22.38ID:kaSZg9r20 >>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
233デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:46:31.38ID:kaSZg9r20 >>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
234デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16])
2019/10/13(日) 22:05:13.10ID:48i2xCpca 五、六層でいいのかと思いきや
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
235デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/13(日) 22:18:18.69ID:/3kPh57iM236デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111])
2019/10/13(日) 22:20:28.84ID:mSmeGM2p0 >>235
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
237デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 22:35:14.55ID:kaSZg9r20238デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.155.10])
2019/10/14(月) 00:26:24.00ID:Xj3JYQcoa 専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる
239デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.6])
2019/10/14(月) 00:50:17.12ID:yAy44Gfva 初等関数?
特殊関数?
特殊関数?
240デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/14(月) 07:16:20.36ID:KQ95R8h/0 >>232
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?
241デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
2019/10/14(月) 12:29:28.91ID:utYACZDud 前に『ゼロから作るディープラーニング』買ったけど
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
242デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 12:54:25.27ID:syyLl6c1M243デフォルトの名無しさん (ワッチョイ 35b0-+TD/ [180.29.199.198])
2019/10/14(月) 13:19:28.08ID:aq/jCORe0 >>241
あの本は線型代数と微積分の知識は必須だと思う
あの本は線型代数と微積分の知識は必須だと思う
244デフォルトの名無しさん (ワッチョイ a3bd-NJTS [157.192.94.92])
2019/10/14(月) 13:53:05.51ID:pO8Bz3ni0 機械学習に数学はいらないよ
245デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59])
2019/10/14(月) 14:01:22.69ID:htBbaZR2r 機械学習に数学はいらないよおじさん「機械学習に数学はいらないよ」
246デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 14:23:44.68ID:syyLl6c1M ソフト使うだけなら数学いらんわね
247デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173])
2019/10/14(月) 14:26:05.12ID:daX/fZMnF 適当にデータ放り込んで適当な手法を選択してなんとなく精度が良さそうなのを選ぶだけで成立する仕事なら数学など不要
普通の企業や研究室ではそんなものに金なんて出してくれないがな
普通の企業や研究室ではそんなものに金なんて出してくれないがな
248デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/14(月) 14:31:10.41ID:JdA0BOgta >>247
そういう仕事は既にAutoMLに取られつつあるね
そういう仕事は既にAutoMLに取られつつあるね
249デフォルトの名無しさん (アメ MM29-2D7i [218.225.236.127])
2019/10/14(月) 14:31:49.76ID:XFqMr8NbM というかこの世界ももう土方がいるのか
250デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/14(月) 14:40:16.73ID:VuPQ6UMJ0 >>240
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
251デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 14:42:39.82ID:syyLl6c1M 最初から土方しかいないから。
今もほとんど土方。
できる人は研究者か大学教員になってる。
今もほとんど土方。
できる人は研究者か大学教員になってる。
252デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173])
2019/10/14(月) 14:47:46.87ID:daX/fZMnF この分野はむしろ大学より民間の方がやりやすいから本来なら博士行くような人も修士までにしてとっとと成果出せる環境に移ろうとする人が多くなってきた印象
253デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
2019/10/14(月) 15:08:32.93ID:utYACZDud >>242
ありがとう。調べてみます。
ありがとう。調べてみます。
254デフォルトの名無しさん (ワッチョイ 0359-o74w [133.175.166.116])
2019/10/14(月) 15:10:40.92ID:4WTqwCCG0 今ならまだ簡単にデータエンジニア目指せるけど、
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね
255デフォルトの名無しさん (ワッチョイ 0359-o74w [133.175.166.116])
2019/10/14(月) 15:13:07.19ID:4WTqwCCG0256デフォルトの名無しさん (ワッチョイ 8302-o74w [101.142.8.160])
2019/10/14(月) 15:22:52.88ID:drx0D0Vb0 博士持ち or ベテラン < 精度の高い競馬予測モデル開発者
データを集めてくるところが始まるから、Kaggleより難易度高い
データを集めてくるところが始まるから、Kaggleより難易度高い
257デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 16:12:47.05ID:syyLl6c1M 博士号持ちといってもピンキリ
天才的な人もいるし、
とんでもない馬鹿もいる。
2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!
天才的な人もいるし、
とんでもない馬鹿もいる。
2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!
258デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/14(月) 17:26:03.50ID:JdA0BOgta >>257
例えばどこの院
例えばどこの院
259デフォルトの名無しさん (ワッチョイ ab82-IE9o [113.20.238.175])
2019/10/14(月) 18:51:16.60ID:/yNf4ic50 >>255
DSって何ですか?
DSって何ですか?
260デフォルトの名無しさん (エムゾネ FF43-1wBF [49.106.193.20])
2019/10/14(月) 18:55:58.36ID:ljIrzJ7BF Deta
Saiensu
Saiensu
261デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237])
2019/10/14(月) 19:22:19.56ID:lAL0R9ntM サイエンティストな
262デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
2019/10/14(月) 20:18:41.61ID:DQ9Yh+dwM >>258
知り合いが現在
そこの教員やってるので
大学名は書かないけど
博士論文は国会図書館に
全て収蔵されるので
みればすぐわかる。
ヒントとしては、
なんと中国語でレポート2枚ぐらいの
博士論文がある!
日本の恥!
抹殺したい!
知り合いが現在
そこの教員やってるので
大学名は書かないけど
博士論文は国会図書館に
全て収蔵されるので
みればすぐわかる。
ヒントとしては、
なんと中国語でレポート2枚ぐらいの
博士論文がある!
日本の恥!
抹殺したい!
263デフォルトの名無しさん (ワッチョイ ab82-IE9o [113.20.238.175])
2019/10/14(月) 21:29:45.45ID:/yNf4ic50 ディープラーニング発明した人に
ノーベル賞やるべきだと思う。
ノーベル賞やるべきだと思う。
264デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237])
2019/10/14(月) 21:34:26.95ID:lAL0R9ntM そんな人おらん
ローゼン・ブラッドからはじまって(もっと前から遡れる?
カナダ人のチームがドロップアウトを考えた時点で弾けたんだ
ローゼン・ブラッドからはじまって(もっと前から遡れる?
カナダ人のチームがドロップアウトを考えた時点で弾けたんだ
265デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237])
2019/10/14(月) 21:35:46.34ID:lAL0R9ntM メダル獲れなかったkaggle用のnoteをgithubに載せてしまった。はずかしー
これで就活だあ〜。おーッ!
これで就活だあ〜。おーッ!
266デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/14(月) 23:09:10.36ID:JdA0BOgta >>263
チューリング賞はとった
チューリング賞はとった
267デフォルトの名無しさん (ワッチョイ 9501-o74w [126.25.131.86])
2019/10/14(月) 23:23:40.59ID:Dfy8oKXF0 チューリング賞は賞自体よりも取ってる人のがたいてい有名っていう。。
268デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
2019/10/15(火) 02:28:14.05ID:KLW/euVzM 甘利さんか?
269デフォルトの名無しさん (ブーイモ MM43-HLBv [49.239.65.167])
2019/10/15(火) 06:10:05.34ID:I8iXAPqNM 競馬予想みたいにデータ収集含めて特定の領域に特化したモデル作れる人だけが勝つようになるかね、、、全く潰しのきかない職業になりそうですね。
270デフォルトの名無しさん (ワッチョイ 35b0-+TD/ [180.29.199.198])
2019/10/15(火) 06:37:37.44ID:7FHw0Vhl0 ゲームの自動生成やりたいから勉強してるけどそういう職業目指してない
271デフォルトの名無しさん (アウアウカー Sa51-KA+R [182.251.40.158])
2019/10/15(火) 07:35:51.98ID:5lPGjOaaa >>269
田倉寛史は失業するな。
田倉寛史は失業するな。
272デフォルトの名無しさん (ワントンキン MMa3-Hjv8 [153.154.213.244])
2019/10/15(火) 09:11:20.62ID:CGH1vHQcM 競馬って予想して勝てるゲームなの?
273デフォルトの名無しさん (ワッチョイ 1bd2-jjWQ [39.111.201.166])
2019/10/15(火) 09:52:34.15ID:BuCrjnSD0 kerasしかわかんね
274デフォルトの名無しさん (アウアウカー Sa51-Eud4 [182.251.107.240])
2019/10/15(火) 10:04:58.88ID:ST5HgM4Ya 統計学で競馬で食ってる人いる見たいよ
10年くらい前に聞いた話しだけど
10年くらい前に聞いた話しだけど
275デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.252])
2019/10/15(火) 10:08:19.91ID:CpmUKzMvM 統計学やらなくてもきちんと研究すれば勝てるらしいけど
才能の使い方としては空しいな
才能の使い方としては空しいな
276デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.117.54])
2019/10/15(火) 10:31:23.58ID:YjTx8zIDa 佐々木洋佑の予想。
277デフォルトの名無しさん (スフッ Sd43-w6Hz [49.104.12.227])
2019/10/15(火) 10:36:34.51ID:tidBIruUd 控除率25%の競馬で勝とうとするならもっと楽に勝てるとこに注力した方がましやろ
278デフォルトの名無しさん (ワッチョイ 3555-TmsB [180.44.111.72])
2019/10/15(火) 10:52:22.27ID:AlK2cYWx0 >>277
FXとか?
FXとか?
279デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.252])
2019/10/15(火) 11:24:20.27ID:CpmUKzMvM FXより競馬の方が百倍楽でしょ
勝つために必要なデータを取れればだけど
勝つために必要なデータを取れればだけど
280デフォルトの名無しさん (オッペケ Sr61-uMWA [126.255.149.234])
2019/10/15(火) 12:32:17.34ID:2+ahF6drr >>221
層が多いほうが表現力が高い
教師データ数に対して異常に多いパラメータは、なんで性能が伸びるかよく分からない。
パラメータの中にはあたりくじがあるのかもという、宝くじ仮設なるものがあるけれどどうなのでしょう?
層が多いほうが表現力が高い
教師データ数に対して異常に多いパラメータは、なんで性能が伸びるかよく分からない。
パラメータの中にはあたりくじがあるのかもという、宝くじ仮設なるものがあるけれどどうなのでしょう?
281デフォルトの名無しさん (ワッチョイ 35a0-o74w [110.4.207.23])
2019/10/15(火) 13:03:36.76ID:uSQ3MvZ60 テーブルデータの解析って、nnをつかっても2層や3層だから、ぜんぜんdeepじゃないよね
営業の人はそれでもディープラーニングっていうんだろうなあ
営業の人はそれでもディープラーニングっていうんだろうなあ
282デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
2019/10/15(火) 13:13:25.51ID:KLW/euVzM テーブルデータってなーに?
283デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59])
2019/10/15(火) 16:36:14.39ID:OfiTiE/Hr >>221
深くする程損失関数が凸関数に近くなり最適解に辿り着きやすくなるかも知れないことが最近の理論研究で判明してきている
深くする程損失関数が凸関数に近くなり最適解に辿り着きやすくなるかも知れないことが最近の理論研究で判明してきている
284デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/15(火) 23:48:10.86ID:1HOx40aj0 層を増やすと普通にバックプロパゲーションだけでは上手く学習できないんじゃね
どうするんだっけ
どうするんだっけ
285デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.4])
2019/10/16(水) 07:22:30.93ID:399vjxSUM 甘利さんに聞く
286デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
2019/10/16(水) 12:21:07.84ID:KK2SmrYwd ドロップアウトって
実際に人間の脳でも行われているのでしょうか?
実際に人間の脳でも行われているのでしょうか?
287デフォルトの名無しさん (アウアウカー Sa51-Eud4 [182.251.111.73])
2019/10/16(水) 12:33:04.35ID:ur38NdBia インドのリキシャの話は知ってるか?
人間は一度認識すれば多少形は違ってもリキシャだとわかる
おそらく人間は逆で、学習したデータを柔軟に他の認識の補助とすることができる
人間は一度認識すれば多少形は違ってもリキシャだとわかる
おそらく人間は逆で、学習したデータを柔軟に他の認識の補助とすることができる
288デフォルトの名無しさん (ワッチョイ 9501-tBfs [126.48.125.229])
2019/10/16(水) 12:49:56.91ID:Bk7OFSs90 シミュラクラ現象のことか
289デフォルトの名無しさん (ワッチョイ 1bad-wpN8 [119.170.39.15])
2019/10/16(水) 12:55:37.60ID:/VU6ev+W0 kerasで作ったモデルをtfjsで読み込んだんだが
訓練してたときのinputがnp.arrayみたいで
tfjsでpred出来なくて積んだんだが(´・ω・`)
numjsとnumpyって同値じゃないよね?(´・ω・`)
訓練してたときのinputがnp.arrayみたいで
tfjsでpred出来なくて積んだんだが(´・ω・`)
numjsとnumpyって同値じゃないよね?(´・ω・`)
290デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.48])
2019/10/16(水) 13:17:05.59ID:YrOVtgjKM291デフォルトの名無しさん (アウアウカー Sa51-Eud4 [182.251.111.73])
2019/10/16(水) 15:01:44.54ID:ur38NdBia >>290
は?誰?どゆこと?w
は?誰?どゆこと?w
292デフォルトの名無しさん (ササクッテロ Sp61-zuf7 [126.35.224.239])
2019/10/16(水) 18:21:05.32ID:aRt+pAGAp293デフォルトの名無しさん (スフッ Sd43-v2l4 [49.104.18.87])
2019/10/16(水) 18:25:30.68ID:mV5OOZvVd294デフォルトの名無しさん (アウアウカー Sa51-vt6R [182.251.198.192])
2019/10/16(水) 20:46:35.90ID:h/NO83zwa295デフォルトの名無しさん (ワッチョイ a359-i1P6 [157.14.243.91])
2019/10/16(水) 20:46:41.74ID:wE+aWwg30 一度見た画像をぼんやりとしか覚えてない、という奴はドロップアウト臭い
だから>>292には個人的には賛成できるんだけど
ただ長期記憶が短期記憶うんぬんはリカレントNNを連想するから
このスレ的にはわかりにくいわ
だから>>292には個人的には賛成できるんだけど
ただ長期記憶が短期記憶うんぬんはリカレントNNを連想するから
このスレ的にはわかりにくいわ
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- バリ島で男子生徒ら集団万引きか、防犯カメラ映像が拡散 京都の大谷中学・高校が「窃盗行為」謝罪★4 [七波羅探題★]
- 【地震速報】青森県で震度6強 沿岸部に津波警報 ★6 [ぐれ★]
- 「日の丸にバツ印」掲げた大学生 あいまいな国旗損壊罪に「怖い」 The Mainichi [少考さん★]
- 【テレビ】25年ぶり復活「炎のチャレンジャー」南原清隆&菊池風磨がMC 懐かし「電流イライラ棒」も [湛然★]
- 【音楽】BARBEE BOYS・KONTAが事故で四肢麻痺を公表、新体制で活動は継続 [少考さん★]
- 中国「捜索レーダー起動は各国の通常の手法」 火器管制用か回答せず [蚤の市★]
- ( ・᷄ὢ・᷅ )あ?
- 安価でセブンイレブンの商品買いに行く
- ブタをぶったたく
- ぺこーら、地震で同僚が次々配信を止めるなか強行し続けるので悪目立ちするwww [268244553]
- 高市総理、睡眠時間30分😢
- 【速報】高市早苗、起床 [779938112]
