【統計分析】機械学習・データマイニング26
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん (ワッチョイ efda-zBa2 [223.217.165.150])
2019/09/15(日) 09:23:06.34ID:bjsiNRs40機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
Machine Learningを用いた論文一覧2018
https://shiropen.com/seamless/machine-learning/2018
2017年のディープラーニング論文100選
https://qiita.com/sakaiakira/items/f225b670bea6d851c7ea
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング23
https://mevius.5ch.net/test/read.cgi/tech/1551352040/
-
【統計分析】機械学習・データマイニング25
https://mevius.5ch.net/test/read.cgi/tech/1561568018/
【統計分析】機械学習・データマイニング24
https://mevius.5ch.net/test/read.cgi/tech/1556674785/
-
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:----: EXT was configured
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:: EXT was configured
230デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:28:26.53ID:kaSZg9r20 >>221
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ
直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから
と思うんだが、本当かどうかは分からない
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ
直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから
と思うんだが、本当かどうかは分からない
231デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 21:37:08.64ID:llG9wcVha >>229
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか
232デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:45:22.38ID:kaSZg9r20 >>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
233デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:46:31.38ID:kaSZg9r20 >>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
234デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16])
2019/10/13(日) 22:05:13.10ID:48i2xCpca 五、六層でいいのかと思いきや
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
235デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/13(日) 22:18:18.69ID:/3kPh57iM236デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111])
2019/10/13(日) 22:20:28.84ID:mSmeGM2p0 >>235
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
237デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 22:35:14.55ID:kaSZg9r20238デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.155.10])
2019/10/14(月) 00:26:24.00ID:Xj3JYQcoa 専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる
239デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.6])
2019/10/14(月) 00:50:17.12ID:yAy44Gfva 初等関数?
特殊関数?
特殊関数?
240デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/14(月) 07:16:20.36ID:KQ95R8h/0 >>232
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?
241デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
2019/10/14(月) 12:29:28.91ID:utYACZDud 前に『ゼロから作るディープラーニング』買ったけど
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
242デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 12:54:25.27ID:syyLl6c1M243デフォルトの名無しさん (ワッチョイ 35b0-+TD/ [180.29.199.198])
2019/10/14(月) 13:19:28.08ID:aq/jCORe0 >>241
あの本は線型代数と微積分の知識は必須だと思う
あの本は線型代数と微積分の知識は必須だと思う
244デフォルトの名無しさん (ワッチョイ a3bd-NJTS [157.192.94.92])
2019/10/14(月) 13:53:05.51ID:pO8Bz3ni0 機械学習に数学はいらないよ
245デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59])
2019/10/14(月) 14:01:22.69ID:htBbaZR2r 機械学習に数学はいらないよおじさん「機械学習に数学はいらないよ」
246デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 14:23:44.68ID:syyLl6c1M ソフト使うだけなら数学いらんわね
247デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173])
2019/10/14(月) 14:26:05.12ID:daX/fZMnF 適当にデータ放り込んで適当な手法を選択してなんとなく精度が良さそうなのを選ぶだけで成立する仕事なら数学など不要
普通の企業や研究室ではそんなものに金なんて出してくれないがな
普通の企業や研究室ではそんなものに金なんて出してくれないがな
248デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/14(月) 14:31:10.41ID:JdA0BOgta >>247
そういう仕事は既にAutoMLに取られつつあるね
そういう仕事は既にAutoMLに取られつつあるね
249デフォルトの名無しさん (アメ MM29-2D7i [218.225.236.127])
2019/10/14(月) 14:31:49.76ID:XFqMr8NbM というかこの世界ももう土方がいるのか
250デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/14(月) 14:40:16.73ID:VuPQ6UMJ0 >>240
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
251デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 14:42:39.82ID:syyLl6c1M 最初から土方しかいないから。
今もほとんど土方。
できる人は研究者か大学教員になってる。
今もほとんど土方。
できる人は研究者か大学教員になってる。
252デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173])
2019/10/14(月) 14:47:46.87ID:daX/fZMnF この分野はむしろ大学より民間の方がやりやすいから本来なら博士行くような人も修士までにしてとっとと成果出せる環境に移ろうとする人が多くなってきた印象
253デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
2019/10/14(月) 15:08:32.93ID:utYACZDud >>242
ありがとう。調べてみます。
ありがとう。調べてみます。
254デフォルトの名無しさん (ワッチョイ 0359-o74w [133.175.166.116])
2019/10/14(月) 15:10:40.92ID:4WTqwCCG0 今ならまだ簡単にデータエンジニア目指せるけど、
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね
255デフォルトの名無しさん (ワッチョイ 0359-o74w [133.175.166.116])
2019/10/14(月) 15:13:07.19ID:4WTqwCCG0256デフォルトの名無しさん (ワッチョイ 8302-o74w [101.142.8.160])
2019/10/14(月) 15:22:52.88ID:drx0D0Vb0 博士持ち or ベテラン < 精度の高い競馬予測モデル開発者
データを集めてくるところが始まるから、Kaggleより難易度高い
データを集めてくるところが始まるから、Kaggleより難易度高い
257デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 16:12:47.05ID:syyLl6c1M 博士号持ちといってもピンキリ
天才的な人もいるし、
とんでもない馬鹿もいる。
2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!
天才的な人もいるし、
とんでもない馬鹿もいる。
2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!
258デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/14(月) 17:26:03.50ID:JdA0BOgta >>257
例えばどこの院
例えばどこの院
259デフォルトの名無しさん (ワッチョイ ab82-IE9o [113.20.238.175])
2019/10/14(月) 18:51:16.60ID:/yNf4ic50 >>255
DSって何ですか?
DSって何ですか?
260デフォルトの名無しさん (エムゾネ FF43-1wBF [49.106.193.20])
2019/10/14(月) 18:55:58.36ID:ljIrzJ7BF Deta
Saiensu
Saiensu
261デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237])
2019/10/14(月) 19:22:19.56ID:lAL0R9ntM サイエンティストな
262デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
2019/10/14(月) 20:18:41.61ID:DQ9Yh+dwM >>258
知り合いが現在
そこの教員やってるので
大学名は書かないけど
博士論文は国会図書館に
全て収蔵されるので
みればすぐわかる。
ヒントとしては、
なんと中国語でレポート2枚ぐらいの
博士論文がある!
日本の恥!
抹殺したい!
知り合いが現在
そこの教員やってるので
大学名は書かないけど
博士論文は国会図書館に
全て収蔵されるので
みればすぐわかる。
ヒントとしては、
なんと中国語でレポート2枚ぐらいの
博士論文がある!
日本の恥!
抹殺したい!
263デフォルトの名無しさん (ワッチョイ ab82-IE9o [113.20.238.175])
2019/10/14(月) 21:29:45.45ID:/yNf4ic50 ディープラーニング発明した人に
ノーベル賞やるべきだと思う。
ノーベル賞やるべきだと思う。
264デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237])
2019/10/14(月) 21:34:26.95ID:lAL0R9ntM そんな人おらん
ローゼン・ブラッドからはじまって(もっと前から遡れる?
カナダ人のチームがドロップアウトを考えた時点で弾けたんだ
ローゼン・ブラッドからはじまって(もっと前から遡れる?
カナダ人のチームがドロップアウトを考えた時点で弾けたんだ
265デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237])
2019/10/14(月) 21:35:46.34ID:lAL0R9ntM メダル獲れなかったkaggle用のnoteをgithubに載せてしまった。はずかしー
これで就活だあ〜。おーッ!
これで就活だあ〜。おーッ!
266デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/14(月) 23:09:10.36ID:JdA0BOgta >>263
チューリング賞はとった
チューリング賞はとった
267デフォルトの名無しさん (ワッチョイ 9501-o74w [126.25.131.86])
2019/10/14(月) 23:23:40.59ID:Dfy8oKXF0 チューリング賞は賞自体よりも取ってる人のがたいてい有名っていう。。
268デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
2019/10/15(火) 02:28:14.05ID:KLW/euVzM 甘利さんか?
269デフォルトの名無しさん (ブーイモ MM43-HLBv [49.239.65.167])
2019/10/15(火) 06:10:05.34ID:I8iXAPqNM 競馬予想みたいにデータ収集含めて特定の領域に特化したモデル作れる人だけが勝つようになるかね、、、全く潰しのきかない職業になりそうですね。
270デフォルトの名無しさん (ワッチョイ 35b0-+TD/ [180.29.199.198])
2019/10/15(火) 06:37:37.44ID:7FHw0Vhl0 ゲームの自動生成やりたいから勉強してるけどそういう職業目指してない
271デフォルトの名無しさん (アウアウカー Sa51-KA+R [182.251.40.158])
2019/10/15(火) 07:35:51.98ID:5lPGjOaaa >>269
田倉寛史は失業するな。
田倉寛史は失業するな。
272デフォルトの名無しさん (ワントンキン MMa3-Hjv8 [153.154.213.244])
2019/10/15(火) 09:11:20.62ID:CGH1vHQcM 競馬って予想して勝てるゲームなの?
273デフォルトの名無しさん (ワッチョイ 1bd2-jjWQ [39.111.201.166])
2019/10/15(火) 09:52:34.15ID:BuCrjnSD0 kerasしかわかんね
274デフォルトの名無しさん (アウアウカー Sa51-Eud4 [182.251.107.240])
2019/10/15(火) 10:04:58.88ID:ST5HgM4Ya 統計学で競馬で食ってる人いる見たいよ
10年くらい前に聞いた話しだけど
10年くらい前に聞いた話しだけど
275デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.252])
2019/10/15(火) 10:08:19.91ID:CpmUKzMvM 統計学やらなくてもきちんと研究すれば勝てるらしいけど
才能の使い方としては空しいな
才能の使い方としては空しいな
276デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.117.54])
2019/10/15(火) 10:31:23.58ID:YjTx8zIDa 佐々木洋佑の予想。
277デフォルトの名無しさん (スフッ Sd43-w6Hz [49.104.12.227])
2019/10/15(火) 10:36:34.51ID:tidBIruUd 控除率25%の競馬で勝とうとするならもっと楽に勝てるとこに注力した方がましやろ
278デフォルトの名無しさん (ワッチョイ 3555-TmsB [180.44.111.72])
2019/10/15(火) 10:52:22.27ID:AlK2cYWx0 >>277
FXとか?
FXとか?
279デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.252])
2019/10/15(火) 11:24:20.27ID:CpmUKzMvM FXより競馬の方が百倍楽でしょ
勝つために必要なデータを取れればだけど
勝つために必要なデータを取れればだけど
280デフォルトの名無しさん (オッペケ Sr61-uMWA [126.255.149.234])
2019/10/15(火) 12:32:17.34ID:2+ahF6drr >>221
層が多いほうが表現力が高い
教師データ数に対して異常に多いパラメータは、なんで性能が伸びるかよく分からない。
パラメータの中にはあたりくじがあるのかもという、宝くじ仮設なるものがあるけれどどうなのでしょう?
層が多いほうが表現力が高い
教師データ数に対して異常に多いパラメータは、なんで性能が伸びるかよく分からない。
パラメータの中にはあたりくじがあるのかもという、宝くじ仮設なるものがあるけれどどうなのでしょう?
281デフォルトの名無しさん (ワッチョイ 35a0-o74w [110.4.207.23])
2019/10/15(火) 13:03:36.76ID:uSQ3MvZ60 テーブルデータの解析って、nnをつかっても2層や3層だから、ぜんぜんdeepじゃないよね
営業の人はそれでもディープラーニングっていうんだろうなあ
営業の人はそれでもディープラーニングっていうんだろうなあ
282デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
2019/10/15(火) 13:13:25.51ID:KLW/euVzM テーブルデータってなーに?
283デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59])
2019/10/15(火) 16:36:14.39ID:OfiTiE/Hr >>221
深くする程損失関数が凸関数に近くなり最適解に辿り着きやすくなるかも知れないことが最近の理論研究で判明してきている
深くする程損失関数が凸関数に近くなり最適解に辿り着きやすくなるかも知れないことが最近の理論研究で判明してきている
284デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/15(火) 23:48:10.86ID:1HOx40aj0 層を増やすと普通にバックプロパゲーションだけでは上手く学習できないんじゃね
どうするんだっけ
どうするんだっけ
285デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.4])
2019/10/16(水) 07:22:30.93ID:399vjxSUM 甘利さんに聞く
286デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
2019/10/16(水) 12:21:07.84ID:KK2SmrYwd ドロップアウトって
実際に人間の脳でも行われているのでしょうか?
実際に人間の脳でも行われているのでしょうか?
287デフォルトの名無しさん (アウアウカー Sa51-Eud4 [182.251.111.73])
2019/10/16(水) 12:33:04.35ID:ur38NdBia インドのリキシャの話は知ってるか?
人間は一度認識すれば多少形は違ってもリキシャだとわかる
おそらく人間は逆で、学習したデータを柔軟に他の認識の補助とすることができる
人間は一度認識すれば多少形は違ってもリキシャだとわかる
おそらく人間は逆で、学習したデータを柔軟に他の認識の補助とすることができる
288デフォルトの名無しさん (ワッチョイ 9501-tBfs [126.48.125.229])
2019/10/16(水) 12:49:56.91ID:Bk7OFSs90 シミュラクラ現象のことか
289デフォルトの名無しさん (ワッチョイ 1bad-wpN8 [119.170.39.15])
2019/10/16(水) 12:55:37.60ID:/VU6ev+W0 kerasで作ったモデルをtfjsで読み込んだんだが
訓練してたときのinputがnp.arrayみたいで
tfjsでpred出来なくて積んだんだが(´・ω・`)
numjsとnumpyって同値じゃないよね?(´・ω・`)
訓練してたときのinputがnp.arrayみたいで
tfjsでpred出来なくて積んだんだが(´・ω・`)
numjsとnumpyって同値じゃないよね?(´・ω・`)
290デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.48])
2019/10/16(水) 13:17:05.59ID:YrOVtgjKM291デフォルトの名無しさん (アウアウカー Sa51-Eud4 [182.251.111.73])
2019/10/16(水) 15:01:44.54ID:ur38NdBia >>290
は?誰?どゆこと?w
は?誰?どゆこと?w
292デフォルトの名無しさん (ササクッテロ Sp61-zuf7 [126.35.224.239])
2019/10/16(水) 18:21:05.32ID:aRt+pAGAp293デフォルトの名無しさん (スフッ Sd43-v2l4 [49.104.18.87])
2019/10/16(水) 18:25:30.68ID:mV5OOZvVd294デフォルトの名無しさん (アウアウカー Sa51-vt6R [182.251.198.192])
2019/10/16(水) 20:46:35.90ID:h/NO83zwa295デフォルトの名無しさん (ワッチョイ a359-i1P6 [157.14.243.91])
2019/10/16(水) 20:46:41.74ID:wE+aWwg30 一度見た画像をぼんやりとしか覚えてない、という奴はドロップアウト臭い
だから>>292には個人的には賛成できるんだけど
ただ長期記憶が短期記憶うんぬんはリカレントNNを連想するから
このスレ的にはわかりにくいわ
だから>>292には個人的には賛成できるんだけど
ただ長期記憶が短期記憶うんぬんはリカレントNNを連想するから
このスレ的にはわかりにくいわ
296デフォルトの名無しさん (ワッチョイ a359-i1P6 [157.14.243.91])
2019/10/16(水) 20:48:32.70ID:wE+aWwg30 >>294
これま?
これま?
297デフォルトの名無しさん (ワッチョイ c501-e/MC [60.86.178.93 [上級国民]])
2019/10/16(水) 21:07:54.87ID:dCHq3Ix40298デフォルトの名無しさん (アウアウカー Sa51-vt6R [182.251.183.128])
2019/10/16(水) 21:15:52.71ID:XUKusm2Pa BPの話かと思ったらdropoutの方だったすまん
そっちに関連するものは知らん
そっちに関連するものは知らん
299デフォルトの名無しさん (オッペケ Srbf-bvQ5 [126.208.149.124])
2019/10/17(木) 08:31:12.53ID:O+QTTbhZr >>283
KKT条件?
KKT条件?
300デフォルトの名無しさん (アウアウクー MMff-V+wO [36.11.225.93])
2019/10/17(木) 15:21:49.83ID:lSerOx+kM 違うぞ
301デフォルトの名無しさん (オッペケ Srbf-S1Ce [126.211.27.217])
2019/10/17(木) 15:30:38.70ID:IoilZ/4vr mnistのデータをインストール出来なかったから
直接.npz型データを落としてきてこれを.kerasのdatasetsフォルダに入れたら
使えるようになった
こういうのは邪道なのか
直接.npz型データを落としてきてこれを.kerasのdatasetsフォルダに入れたら
使えるようになった
こういうのは邪道なのか
302デフォルトの名無しさん (JP 0Hd2-ugRq [153.143.147.33])
2019/10/18(金) 20:19:51.03ID:ohB2HmeFH きみたちSparkとかHadoopとか使ってるの?
深層学習の理論の話しは出るけども
深層学習の理論の話しは出るけども
303デフォルトの名無しさん (アウアウクー MMff-V+wO [36.11.225.125])
2019/10/18(金) 22:12:26.25ID:+r0vv9/5M Sparkは競争に負けたシステムだし、Hadoopはゴミ
304デフォルトの名無しさん (アウアウクー MMff-V+wO [36.11.225.125])
2019/10/18(金) 22:12:50.99ID:+r0vv9/5M >>301
たぶん正道
たぶん正道
305デフォルトの名無しさん (ワッチョイ bf01-V+wO [126.25.131.86])
2019/10/19(土) 10:20:09.74ID:Xn59Im0u0 hadoopなんてまともに使おうとしたらgoogle並みの回線チューニングが必要なんでしょ?
306デフォルトの名無しさん (ワッチョイ f7ad-V+wO [124.144.197.178])
2019/10/19(土) 11:27:09.87ID:O4F+zYXc0 ググってると、ときどき尾崎隆のブログが検索結果に出てくる。
みなさんもご存じ(?)の、
「渋谷駅前で働くデータサイエンティストのブログ」というやつ。
名前を公開して堂々とブログを書いているのであるから、
間違いがあっても、実名でよく書いた!ほめてあげよう。
だって、5chなんて匿名だから批判とか妬みとか罵詈雑言ばかりだもんな。
尾崎は偉いと思う。実名で書いてるから。
ちょっと自信過剰すぎて、ブログの間違いを見つけるたびに
笑えるけどそれもまたいい!
尾崎はいいやつ!
これからもブログをどんどん書いてくれ!
みなさんもご存じ(?)の、
「渋谷駅前で働くデータサイエンティストのブログ」というやつ。
名前を公開して堂々とブログを書いているのであるから、
間違いがあっても、実名でよく書いた!ほめてあげよう。
だって、5chなんて匿名だから批判とか妬みとか罵詈雑言ばかりだもんな。
尾崎は偉いと思う。実名で書いてるから。
ちょっと自信過剰すぎて、ブログの間違いを見つけるたびに
笑えるけどそれもまたいい!
尾崎はいいやつ!
これからもブログをどんどん書いてくれ!
307デフォルトの名無しさん (ワッチョイ 2fe6-sprL [14.3.161.84])
2019/10/19(土) 12:29:08.69ID:RpavgoGg0 自信過剰
308デフォルトの名無しさん (ワッチョイ 4eda-r0zP [223.217.38.185])
2019/10/19(土) 13:48:35.47ID:oy4za/qN0 馬鹿乙
309デフォルトの名無しさん (ワッチョイ f7ad-V+wO [124.144.197.178])
2019/10/19(土) 14:19:40.09ID:O4F+zYXc0310デフォルトの名無しさん (ファミワイ FF73-V+wO [210.248.148.138])
2019/10/19(土) 15:03:04.15ID:5Qr+gv3yF オンプレ環境でリアルタイムのビックデータ解析やりたいシチュ
データ容量は1TB程度……あんまりないよね
データ容量は1TB程度……あんまりないよね
311デフォルトの名無しさん (アウアウカー Saa7-KB0K [182.251.140.61])
2019/10/19(土) 16:11:23.85ID:6fznObHGa 使いまくるなら圧倒的にローカルで環境構築する方が安いし自由度高いからな
クラウドコンピューティング万能説を説いている人を見ると「それで十分な程度でしか使っていないんだな」という感想しかない
クラウドコンピューティング万能説を説いている人を見ると「それで十分な程度でしか使っていないんだな」という感想しかない
312デフォルトの名無しさん (アウアウクー MMff-V+wO [36.11.224.130])
2019/10/19(土) 17:05:53.24ID:MiA7VA63M 安さは開発費込みで圧倒的ではないだろう
自由度は同意
自由度は同意
313デフォルトの名無しさん (JP 0Hd2-ugRq [153.143.147.33])
2019/10/19(土) 17:42:12.86ID:3SA6UJOGH よく知らんけど調達コスト高いのでは
特に期間
特に期間
314デフォルトの名無しさん (ワッチョイ bf01-V+wO [126.25.131.86])
2019/10/19(土) 17:52:06.40ID:Xn59Im0u0 クラウド万能とは思わんが数百GB単位でボコボコ組むならまずクラウドで組んだ方がいいと思うがな。
自前のオンプレで組むならかなり正確な見積もりないと怖いわ。
自前のオンプレで組むならかなり正確な見積もりないと怖いわ。
315デフォルトの名無しさん (ワッチョイ 229c-4ovH [61.125.210.189])
2019/10/19(土) 19:39:02.78ID:TPhFrENC0 最近は大手メーカーがオンプレのGPU買うケースが増えてる
彼らはアンチクラウドだから絶対使わないし
データを外部に置くことを極端に嫌う
彼らはアンチクラウドだから絶対使わないし
データを外部に置くことを極端に嫌う
316デフォルトの名無しさん (アウアウクー MMff-V+wO [36.11.224.130])
2019/10/19(土) 20:33:07.47ID:MiA7VA63M あくまで自分の肌感覚だけど、最近そういう風潮もなくなってきたというか、
コストカットで見境がなくなってきた印象がある
日本は海外ほどクラウドの導入が進まないけど、そのうち一気にくるだろう
コストカットで見境がなくなってきた印象がある
日本は海外ほどクラウドの導入が進まないけど、そのうち一気にくるだろう
317デフォルトの名無しさん (オッペケ Srbf-S1Ce [126.211.27.217])
2019/10/19(土) 21:05:40.70ID:/qIJCw1Pr kerasの経験ばかり増えたが、いきなり生のtensorflowのコードを見たりchainerを見せられたり
日々勉強だなあ
データセットもある日はnpzある日はpkl
日々勉強だなあ
データセットもある日はnpzある日はpkl
318デフォルトの名無しさん (ワッチョイ f67c-4dmd [113.42.68.218])
2019/10/20(日) 00:03:48.28ID:tuWSj+Lu0 >>315
セキュリティが心配なんだろうと思う
セキュリティが心配なんだろうと思う
319デフォルトの名無しさん (アウアウクー MMff-V+wO [36.11.224.130])
2019/10/20(日) 00:44:54.23ID:Ff441XyXM セキュリティというよりデータを抜かれるのが心配
特に画像処理
特に画像処理
320デフォルトの名無しさん (アウアウエー Sa7a-S3Tg [111.239.67.162])
2019/10/20(日) 01:42:29.38ID:nq7StZQCa 自然言語処理は近頃 word2vec 一択なの?
321デフォルトの名無しさん (ワッチョイ f7ad-V+wO [124.144.197.178])
2019/10/20(日) 03:49:01.05ID:zXnrxtUW0322デフォルトの名無しさん (ワッチョイ f7ad-V+wO [124.144.197.178])
2019/10/20(日) 03:50:55.76ID:zXnrxtUW0 うちではword2vecは使ってないよ
323デフォルトの名無しさん (ワッチョイ 2fe6-hjwr [14.3.161.84])
2019/10/20(日) 06:36:34.16ID:RLBjETOG0 自然言語処理スレで聞け
324デフォルトの名無しさん (ワッチョイ f67c-4dmd [113.42.68.218])
2019/10/20(日) 06:51:17.93ID:tuWSj+Lu0 >>319
データを抜かれるのはセキュリティの脅威の一つ
データを抜かれるのはセキュリティの脅威の一つ
325デフォルトの名無しさん (ワッチョイ 9202-V+wO [101.142.8.160])
2019/10/20(日) 08:21:29.15ID:KT5ycvxT0 クラウド=情報漏洩の可能性が高いわけではなく、
社内のアナログ上司の承認が降りないんだろう
データセンターと国内の一般的な企業のセキュリティの堅牢性を比べたら前者が勝ち
社内のアナログ上司の承認が降りないんだろう
データセンターと国内の一般的な企業のセキュリティの堅牢性を比べたら前者が勝ち
326デフォルトの名無しさん (ワッチョイ bf01-V+wO [126.25.131.86])
2019/10/20(日) 09:51:37.69ID:4HG1pc8w0 データ解析事業なんて当たればデカいけどリスクでかいし、
マイナス査定が通常の企業じゃ社員はやりたがらんだろうね。
クラウドにデータおきたがらないのなんてわかりやすい大企業病の例だわ。
マイナス査定が通常の企業じゃ社員はやりたがらんだろうね。
クラウドにデータおきたがらないのなんてわかりやすい大企業病の例だわ。
327デフォルトの名無しさん (アウアウカー Saa7-KB0K [182.251.151.218])
2019/10/20(日) 10:15:03.52ID:WLZPVulDa セキュリティ万全と言いながら音声認識の音声データを勝手に社員が聞いていたりという事例もあるわけで
物理的にデータが相手側に置かれる以上はいくらでもこっそり悪用できるし内部告発以外でそれに気付くことは不可能だからな
扱うデータの性質にもよるが大企業ならすぐ炎上し得るので慎重になるのは当然だろう
物理的にデータが相手側に置かれる以上はいくらでもこっそり悪用できるし内部告発以外でそれに気付くことは不可能だからな
扱うデータの性質にもよるが大企業ならすぐ炎上し得るので慎重になるのは当然だろう
328デフォルトの名無しさん (ワッチョイ f7ad-V+wO [124.144.197.178])
2019/10/20(日) 10:18:01.24ID:zXnrxtUW0 クラウドとローカルと、うまく使い分ければいいだけの話
言語論争と同じで、その仕事に適しているものを使うというだけの話
言語論争と同じで、その仕事に適しているものを使うというだけの話
329デフォルトの名無しさん (アウアウクー MMff-V+wO [36.11.225.214])
2019/10/20(日) 10:37:24.12ID:006B6SYsM 個人的に、ローカル側を勉強するコストは別のことに回したいかなあ…
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【地震速報】青森県で震度6強 沿岸部に津波警報 ★6 [ぐれ★]
- 「日の丸にバツ印」掲げた大学生 あいまいな国旗損壊罪に「怖い」 The Mainichi [少考さん★]
- 【音楽】BARBEE BOYS・KONTAが事故で四肢麻痺を公表、新体制で活動は継続 [少考さん★]
- 【野球】野球の未来に危機感「マイナースポーツになる」 宮本慎也氏が開催…学童大会 [尺アジ★]
- 中国「捜索レーダー起動は各国の通常の手法」 火器管制用か回答せず [蚤の市★]
- 【訃報】声優・西村知道さん死去 「SLAM DUNK」安西先生役 9月に体調不良のため一時休業 [少考さん★]
- ぺこーら、地震で同僚が次々配信を止めるなか強行し続けるので悪目立ちするwww [268244553]
- なぜ人間は架空の人物に感情移入するのか
- 【愛国者速報】山上徹也、金に困りTwitterのお金配り垢に応募していた。犯行もお金があったら暫くやらなかったと供述 [856698234]
- 年々クリスマス感が無くなってる
- 【速報】高市早苗、起床 [779938112]
- ひま
