探検
【統計分析】機械学習・データマイニング26
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん (ワッチョイ efda-zBa2 [223.217.165.150])
2019/09/15(日) 09:23:06.34ID:bjsiNRs40機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
Machine Learningを用いた論文一覧2018
https://shiropen.com/seamless/machine-learning/2018
2017年のディープラーニング論文100選
https://qiita.com/sakaiakira/items/f225b670bea6d851c7ea
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング23
https://mevius.5ch.net/test/read.cgi/tech/1551352040/
-
【統計分析】機械学習・データマイニング25
https://mevius.5ch.net/test/read.cgi/tech/1561568018/
【統計分析】機械学習・データマイニング24
https://mevius.5ch.net/test/read.cgi/tech/1556674785/
-
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:----: EXT was configured
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:: EXT was configured
190デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/11(金) 08:18:38.76ID:mCGV3tUv0 >>184
中心極限定理の話しで
標本数を30にした平均値の分布は
元の分布に関係なく正規分布とみなせるって事だよな
食べログの分布もその分布から標本を30取り出して
平均値を求める操作を10000回繰り返して
平均値の分布を描くと正規分布に近くなるはず
中心極限定理の話しで
標本数を30にした平均値の分布は
元の分布に関係なく正規分布とみなせるって事だよな
食べログの分布もその分布から標本を30取り出して
平均値を求める操作を10000回繰り返して
平均値の分布を描くと正規分布に近くなるはず
191デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111])
2019/10/11(金) 11:53:47.65ID:BrwAZKhG0192デフォルトの名無しさん (ワイーワ2 FF93-1wBF [103.5.142.233])
2019/10/11(金) 11:58:01.09ID:hkXt1GtmF 重量ハンデは?
193デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.81])
2019/10/11(金) 14:41:23.78ID:uWNk0GcMM アルバイトでデータ解析やってる人間の意見としては、
とにかく役立ちそうな特徴量を選択せずにぶち込めるだけぶち込んで、
一度xgbかcgbを回してみればいいんじゃない
そうすれば重要な特徴量が何か抽出できるでしょ
話はそれからよ
勝ち馬をよく当てる人が何を大切にしているか調べることからはじめるべき
とにかく役立ちそうな特徴量を選択せずにぶち込めるだけぶち込んで、
一度xgbかcgbを回してみればいいんじゃない
そうすれば重要な特徴量が何か抽出できるでしょ
話はそれからよ
勝ち馬をよく当てる人が何を大切にしているか調べることからはじめるべき
194デフォルトの名無しさん (ワッチョイ 7dda-C28+ [114.187.197.203])
2019/10/12(土) 10:11:52.93ID:UGc1lgsI0 馬を株の銘柄に置き換えてリターンとリスク(分散)を元に
共分散使って有効フロンティアの曲線を引いて
無差別曲線と接する部分の比を見てパーセンテージの高い順に馬を買うってのは?
共分散使って有効フロンティアの曲線を引いて
無差別曲線と接する部分の比を見てパーセンテージの高い順に馬を買うってのは?
195デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 00:20:47.58ID:kaSZg9r20 >>184
すでに指摘されているが、母集団の分布は正規分布である必要はない
>>190
中心極限定理の話(前半の話)はそうだけども、後半の部分は何が言いたいのかよく分からない
食べログの評点は一人当たり整数値の1~5を付けられる(ある店舗における点数分布をAとする)
各店舗は添付ごとにN人の評価の平均を平均点として算出する(各店舗の平均点分布をBとし、これが話題となっている分布)
Aの採点を行うのが一般人であると仮定すると、各店舗は同一の母集団確率分布に従うものと仮定でき、各店舗の確率変数X1, X2, …, XNは同一の母集団確率分布からのランダムサンプルと考えられる
大数の法則により、標本平均(分布Bのこと)は母集団の平均に近づき正規分布になる
標本数30以上というのはNが30以上ということで、この部分は残念ながら自明ではない
ある焼肉屋の評価は67件から構成されているが、別の焼肉屋は2件となっている
つまり最大限「食べログ」を擁護するのであれば、標本数が30以上ではないため前提条件が間違っている、ということだろうか
すでに指摘されているが、母集団の分布は正規分布である必要はない
>>190
中心極限定理の話(前半の話)はそうだけども、後半の部分は何が言いたいのかよく分からない
食べログの評点は一人当たり整数値の1~5を付けられる(ある店舗における点数分布をAとする)
各店舗は添付ごとにN人の評価の平均を平均点として算出する(各店舗の平均点分布をBとし、これが話題となっている分布)
Aの採点を行うのが一般人であると仮定すると、各店舗は同一の母集団確率分布に従うものと仮定でき、各店舗の確率変数X1, X2, …, XNは同一の母集団確率分布からのランダムサンプルと考えられる
大数の法則により、標本平均(分布Bのこと)は母集団の平均に近づき正規分布になる
標本数30以上というのはNが30以上ということで、この部分は残念ながら自明ではない
ある焼肉屋の評価は67件から構成されているが、別の焼肉屋は2件となっている
つまり最大限「食べログ」を擁護するのであれば、標本数が30以上ではないため前提条件が間違っている、ということだろうか
196デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.152.98])
2019/10/13(日) 00:57:27.47ID:0ePwtCDKa 各店の平均化する前の採点が同一母集団に従うという仮定に無理がありすぎる
例えばラーメン屋とスイーツ店の採点者が同じ傾向の採点するなんて仮定は不自然
例えばラーメン屋とスイーツ店の採点者が同じ傾向の採点するなんて仮定は不自然
197デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156])
2019/10/13(日) 00:59:42.54ID:kaSZg9r20198デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.128.168])
2019/10/13(日) 06:54:46.01ID:ObLeezZqa >>159
Juliaでしょう。
Juliaでしょう。
199デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.128.168])
2019/10/13(日) 06:56:55.49ID:ObLeezZqa >>160
Flux
Flux
200デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 07:21:13.99ID:Fxu1r5BT0 >>195
大数の法則は標本数を増やすと標本平均が母平均に近づくということ
中心極限定理は平均値の分布に関する定理
食べログの評価の数が30になった時点で平均値を計算して
一度リセットするのを繰り返す
その平均値の分布は正規分布に近づく
今の評価の分布がその店に行く人の評価の分布を表している
のであれば今の評価分布から30標本を取って平均値を求める
操作を復元抽出で繰り返しても同じような結果になるだろう
大数の法則は標本数を増やすと標本平均が母平均に近づくということ
中心極限定理は平均値の分布に関する定理
食べログの評価の数が30になった時点で平均値を計算して
一度リセットするのを繰り返す
その平均値の分布は正規分布に近づく
今の評価の分布がその店に行く人の評価の分布を表している
のであれば今の評価分布から30標本を取って平均値を求める
操作を復元抽出で繰り返しても同じような結果になるだろう
201デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 07:23:54.12ID:Fxu1r5BT0 ある店の評価分布は標本数が多くなっても正規分布になるとは言えない
分散が広くなるのはその店のサービスや品質が安定していない事が原因になりうる
その店の特徴が分布に反映される
同様に店を評価する側の特徴も反映されるだろう
分散が広くなるのはその店のサービスや品質が安定していない事が原因になりうる
その店の特徴が分布に反映される
同様に店を評価する側の特徴も反映されるだろう
202デフォルトの名無しさん (ブーイモ MM89-ToAo [202.214.125.165])
2019/10/13(日) 07:58:04.98ID:S6cUkNQoM 深層学習の凄いことのひとつは特徴量を人が設計する必要がない、と本とかに書いてありますが、どう理解すればいいのか分からず教えてください!
ここでいう深層学習とはニューラルネットのことですか?(線形回帰やSVMと違って説明変数を人間が決めてないから? )
ここでいう深層学習とはニューラルネットのことですか?(線形回帰やSVMと違って説明変数を人間が決めてないから? )
203デフォルトの名無しさん (ワッチョイ 8302-o74w [101.142.8.160])
2019/10/13(日) 08:07:52.14ID:A69S9ntC0 レビューを投稿する行動を取る時点で母集団にサンプルバイアス
204デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156])
2019/10/13(日) 08:55:43.76ID:kaSZg9r20 >>201
言ってることの一つ一つは正しいことは理解できるんだけど、何が言いたいのか理解できないんだ
食べログが評価を操作しているかどうか、は今説明してくれた事を駆使すれば判別できるんだろうか?
あるいは、Twitterの書き込みのおかしさ、は今説明してくれた事を駆使すれば、ココがおかしいと指摘されるんだろうか
言ってることの一つ一つは正しいことは理解できるんだけど、何が言いたいのか理解できないんだ
食べログが評価を操作しているかどうか、は今説明してくれた事を駆使すれば判別できるんだろうか?
あるいは、Twitterの書き込みのおかしさ、は今説明してくれた事を駆使すれば、ココがおかしいと指摘されるんだろうか
205デフォルトの名無しさん (アウアウカー Sa51-vt6R [182.251.195.232])
2019/10/13(日) 09:26:19.57ID:vNAU+AUMa >>201
各店舗の分散は各店舗の分布には影響しても全店舗の平均値の分布には影響しないでしょ
各店舗の分散は各店舗の分布には影響しても全店舗の平均値の分布には影響しないでしょ
206デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.154.80])
2019/10/13(日) 10:08:21.52ID:uKg8mtfTa 中心極限定理はあくまで「同一の母集団から得た独立な確率変数であれば、十分な数の平均値を集めたものの分布が正規分布に近似できる」というもの
全店舗の採点者が同一の基準に従う採点を行うという前提が成り立たなければ成立しない定理
全店舗の採点者が同一の基準に従う採点を行うという前提が成り立たなければ成立しない定理
207デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156])
2019/10/13(日) 10:56:42.24ID:kaSZg9r20 >>206
個々の採点者が同じ基準でないのに中心極限定理を持ち出しているのがおかしいと主張しているわけか、なるほど
同じ基準ではないにしろ、少し幅をつけてみよう
個々の採点者はある得点を中心に正規分布で配点する、もしくは一様分布で採点する、あるいは同じ点数しかつけないものとする
正規分布で採点する者は、正規分布の合成が正規分布になることから、平均値の分布もまた正規分布
一様分布で採点する者は、分布関数の底上げにはなるが平均値には影響を与えない
同じ点数しかつけない者も、平均値そのものをずらす事にはなるが正規分布の形は歪めない
つまるところ上記の前提が成り立つ場合には、平均値の分布は厳密に正規分布になる
毎回1点で、たまに4点をつけるような人が大量にいないと、この評点と言う平均値分布を正規分布から歪めるのは難しいように思う
個々の採点者が同じ基準でないのに中心極限定理を持ち出しているのがおかしいと主張しているわけか、なるほど
同じ基準ではないにしろ、少し幅をつけてみよう
個々の採点者はある得点を中心に正規分布で配点する、もしくは一様分布で採点する、あるいは同じ点数しかつけないものとする
正規分布で採点する者は、正規分布の合成が正規分布になることから、平均値の分布もまた正規分布
一様分布で採点する者は、分布関数の底上げにはなるが平均値には影響を与えない
同じ点数しかつけない者も、平均値そのものをずらす事にはなるが正規分布の形は歪めない
つまるところ上記の前提が成り立つ場合には、平均値の分布は厳密に正規分布になる
毎回1点で、たまに4点をつけるような人が大量にいないと、この評点と言う平均値分布を正規分布から歪めるのは難しいように思う
208デフォルトの名無しさん (ワッチョイ 9501-o74w [126.25.129.72])
2019/10/13(日) 12:13:54.05ID:pJwii1Hg0209デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 12:41:16.37ID:Fxu1r5BT0 >>205
平均値についても同様の事が言える
仮に評価する側が同じだとしても
店舗の特徴によって分布の形は変わる
分布の形を見る事で店舗の特徴を把握してその店を利用するかどうかを事前に利用者が判断できるようにするサービス
が本来目標としたものかもしれない
分布を意図的に操作する事で金儲けに利用しようとした疑いが上がっているという問題だと思う
平均値についても同様の事が言える
仮に評価する側が同じだとしても
店舗の特徴によって分布の形は変わる
分布の形を見る事で店舗の特徴を把握してその店を利用するかどうかを事前に利用者が判断できるようにするサービス
が本来目標としたものかもしれない
分布を意図的に操作する事で金儲けに利用しようとした疑いが上がっているという問題だと思う
210デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 12:44:15.71ID:Fxu1r5BT0 >>207
評価尺度はただの順序尺度で間隔尺度ではないだろう
評価尺度はただの順序尺度で間隔尺度ではないだろう
211デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.4])
2019/10/13(日) 12:53:02.60ID:sm0sVhGqM212デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 13:19:59.66ID:kaSZg9r20 いかん、ラーメン屋の得点とスイーツ屋の得点を合わせて平均するとか謎なことをしていた
改めてデータに立ち戻ろう
3.6にピークがあるのは、とりあえず4に入れておこう層が2/3くらいいて、残りの1/3がとりあえず3に入れておこうということ4*2/3+3*1/3=11/3=3.67で説明できそうだ
逆に言えば、ここにピークが立つのは「とりあえず3か4に入れとけ層」が一定数いるということで、これは直感と合うのであまり怪しくはなさそうだ
次に3.8にギャップがある理由を考えてみる
元のデータを見た所、2つのガウス関数の和で表現できそうだ
一つは平均3.6で3σが0.3にあるピーク、もう一つは平均3.75で3σが0.05のピーク
こう仮定すると3.8にギャップができているのは、この2つ目のガウス関数の裾野に原因がある
この2つのガウス関数が意味するところは
ラーメン屋に通う「オヤジ層」とスイーツ屋に行く「レディー層」の違いを表すのか、
あるいは「関東に住んでいる層」と「関西に住んでいる層」を地域差表すのか、
はたまた疑惑の「操作されていない層」と「操作されている層」の人為操作の違いを表すのか
ラーメン屋だけの分布、特定地域だけの分布は作れそうだが、疑惑の操作に辿り着くのは難しそうだ
改めてデータに立ち戻ろう
3.6にピークがあるのは、とりあえず4に入れておこう層が2/3くらいいて、残りの1/3がとりあえず3に入れておこうということ4*2/3+3*1/3=11/3=3.67で説明できそうだ
逆に言えば、ここにピークが立つのは「とりあえず3か4に入れとけ層」が一定数いるということで、これは直感と合うのであまり怪しくはなさそうだ
次に3.8にギャップがある理由を考えてみる
元のデータを見た所、2つのガウス関数の和で表現できそうだ
一つは平均3.6で3σが0.3にあるピーク、もう一つは平均3.75で3σが0.05のピーク
こう仮定すると3.8にギャップができているのは、この2つ目のガウス関数の裾野に原因がある
この2つのガウス関数が意味するところは
ラーメン屋に通う「オヤジ層」とスイーツ屋に行く「レディー層」の違いを表すのか、
あるいは「関東に住んでいる層」と「関西に住んでいる層」を地域差表すのか、
はたまた疑惑の「操作されていない層」と「操作されている層」の人為操作の違いを表すのか
ラーメン屋だけの分布、特定地域だけの分布は作れそうだが、疑惑の操作に辿り着くのは難しそうだ
213デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 13:25:37.35ID:Fxu1r5BT0 操作がなかったという帰無仮説を棄却できるかどうかじゃね?
214デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 13:39:33.29ID:kaSZg9r20 >>202
まぁ>>208でも言っているけど画像をCNNで処理することを汎用化して言ってる気はするなぁ
少し古いけど
https://deepage.net/deep_learning/2016/11/07/convolutional_neural_network.html
にある
CNNはこういった特徴を抽出するための検出器であるフィルタのパラメータを自動で学習していく
ということなんだろう
RNNでも同じ話はあるので画像だけってことはないけど、なんでもかんでも特徴量を自動抽出ってことではないよ
まぁ>>208でも言っているけど画像をCNNで処理することを汎用化して言ってる気はするなぁ
少し古いけど
https://deepage.net/deep_learning/2016/11/07/convolutional_neural_network.html
にある
CNNはこういった特徴を抽出するための検出器であるフィルタのパラメータを自動で学習していく
ということなんだろう
RNNでも同じ話はあるので画像だけってことはないけど、なんでもかんでも特徴量を自動抽出ってことではないよ
215デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16])
2019/10/13(日) 13:45:19.51ID:48i2xCpca 三層のニューラルネットワークでは xor を分離できないという問題は
さらに多層になったことで何で解消されたの?
さらに多層になったことで何で解消されたの?
216デフォルトの名無しさん (ワッチョイ e394-P4H7 [115.37.73.212])
2019/10/13(日) 14:17:08.81ID:25TC8kRG0 3.8を超えた評価を3.6に落としてるって仮定したらほぼ同じヒストグラムになる
https://i.imgur.com/NrNIWrn.jpg
平均3.8標準偏差0.5で正規分布を生成して、3.8を超えた評価値を90%の確率で平均3.6標準偏差0.01の正規分布で取り直す操作をした(N=1000)
ただ同じだからと言って>>212のように元データの特徴量ごとの性質の違いを反映しているだけかもしれない
https://i.imgur.com/NrNIWrn.jpg
平均3.8標準偏差0.5で正規分布を生成して、3.8を超えた評価値を90%の確率で平均3.6標準偏差0.01の正規分布で取り直す操作をした(N=1000)
ただ同じだからと言って>>212のように元データの特徴量ごとの性質の違いを反映しているだけかもしれない
217デフォルトの名無しさん (アウアウエー Sa13-P4H7 [111.239.178.130])
2019/10/13(日) 14:21:02.62ID:qY0pTgmia >>213
操作がないという帰無仮説について仮説検定の方法で検証するには操作がない場合の点数の理想的な分布を知っていなければならない
その理想分布に基づいて実際の分布がどの程度ずれているのかを確認するのが仮説検定なのだから
しかしそんなもの知り得ないので検定のしようがない
操作がないという帰無仮説について仮説検定の方法で検証するには操作がない場合の点数の理想的な分布を知っていなければならない
その理想分布に基づいて実際の分布がどの程度ずれているのかを確認するのが仮説検定なのだから
しかしそんなもの知り得ないので検定のしようがない
218デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 14:23:09.86ID:llG9wcVha219デフォルトの名無しさん (ブーイモ MM59-ToAo [210.138.208.219])
2019/10/13(日) 14:45:50.67ID:TJDkUn5hM220デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 15:01:05.43ID:kaSZg9r20 >> 215
細かいけど、まず層の数え方から
入力層は層に数えないので、ANDとORは1層で、XORは2層で表現できる
次にXORはなぜ2層で表現可能か
単純に、AND(正確にはNAND)とORの出力をANDで受ければXORが作れるから
ググったら以下のような図を見つけた
https://www.infiniteloop.co.jp/blog/wp-content/uploads/2017/12/XOR.png
>>218の回答はエレガントだけども、少し説明を加えると
(0, 0) → 0
(0, 1) → 1
(1, 0) → 1
(1, 1) → 0
を分ける直線は2次元平面内では書けないけど、3次元に拡張して
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
を分ける平面はa,b,c,dを適当に決めれば作れる(例えばa=d=0, b=c=1としてz=0.5の平面)
a,b,c,dを適当に決めて分離できるってそんなんアリかよ!?って最初は思うかもしれないけど
そんな純粋な気持ちは最初だけで、どうせa, b, c, dは見ないし分離できたら何でもOKになる
細かいけど、まず層の数え方から
入力層は層に数えないので、ANDとORは1層で、XORは2層で表現できる
次にXORはなぜ2層で表現可能か
単純に、AND(正確にはNAND)とORの出力をANDで受ければXORが作れるから
ググったら以下のような図を見つけた
https://www.infiniteloop.co.jp/blog/wp-content/uploads/2017/12/XOR.png
>>218の回答はエレガントだけども、少し説明を加えると
(0, 0) → 0
(0, 1) → 1
(1, 0) → 1
(1, 1) → 0
を分ける直線は2次元平面内では書けないけど、3次元に拡張して
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
を分ける平面はa,b,c,dを適当に決めれば作れる(例えばa=d=0, b=c=1としてz=0.5の平面)
a,b,c,dを適当に決めて分離できるってそんなんアリかよ!?って最初は思うかもしれないけど
そんな純粋な気持ちは最初だけで、どうせa, b, c, dは見ないし分離できたら何でもOKになる
221デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16])
2019/10/13(日) 18:39:55.88ID:48i2xCpca 二層あれば大抵の関数は模倣できるのに
何でもっと多層が必要なの?
何でもっと多層が必要なの?
222デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 18:43:34.64ID:Fxu1r5BT0223デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 18:44:48.26ID:Fxu1r5BT0 >>218
線型結合してる層を増やすとなぜ高次元になるのかを直感的に判るように説明して
線型結合してる層を増やすとなぜ高次元になるのかを直感的に判るように説明して
224デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 19:30:49.94ID:llG9wcVha225デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 19:32:44.25ID:llG9wcVha >>223
一旦中間層のニューロン数だけの次元を持つ空間を経由できるから
一旦中間層のニューロン数だけの次元を持つ空間を経由できるから
226デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 20:04:55.16ID:Fxu1r5BT0227デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 20:33:11.99ID:llG9wcVha228デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/13(日) 20:44:50.78ID:/3kPh57iM ディープキスのほうがいい!
舌をからませるの
立つよね!
舌をからませるの
立つよね!
229デフォルトの名無しさん (ワッチョイ 9501-qBpa [126.25.131.86])
2019/10/13(日) 20:48:48.51ID:P1vmVh210 >ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない
こんなことを示した論文などない。
よくこんなことをさも証明されたことの如く言えるな。
こんなことを示した論文などない。
よくこんなことをさも証明されたことの如く言えるな。
230デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:28:26.53ID:kaSZg9r20 >>221
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ
直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから
と思うんだが、本当かどうかは分からない
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ
直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから
と思うんだが、本当かどうかは分からない
231デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 21:37:08.64ID:llG9wcVha >>229
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか
232デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:45:22.38ID:kaSZg9r20 >>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
233デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:46:31.38ID:kaSZg9r20 >>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
234デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16])
2019/10/13(日) 22:05:13.10ID:48i2xCpca 五、六層でいいのかと思いきや
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
235デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/13(日) 22:18:18.69ID:/3kPh57iM236デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111])
2019/10/13(日) 22:20:28.84ID:mSmeGM2p0 >>235
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
237デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 22:35:14.55ID:kaSZg9r20238デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.155.10])
2019/10/14(月) 00:26:24.00ID:Xj3JYQcoa 専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる
239デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.6])
2019/10/14(月) 00:50:17.12ID:yAy44Gfva 初等関数?
特殊関数?
特殊関数?
240デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/14(月) 07:16:20.36ID:KQ95R8h/0 >>232
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?
241デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
2019/10/14(月) 12:29:28.91ID:utYACZDud 前に『ゼロから作るディープラーニング』買ったけど
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
242デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 12:54:25.27ID:syyLl6c1M243デフォルトの名無しさん (ワッチョイ 35b0-+TD/ [180.29.199.198])
2019/10/14(月) 13:19:28.08ID:aq/jCORe0 >>241
あの本は線型代数と微積分の知識は必須だと思う
あの本は線型代数と微積分の知識は必須だと思う
244デフォルトの名無しさん (ワッチョイ a3bd-NJTS [157.192.94.92])
2019/10/14(月) 13:53:05.51ID:pO8Bz3ni0 機械学習に数学はいらないよ
245デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59])
2019/10/14(月) 14:01:22.69ID:htBbaZR2r 機械学習に数学はいらないよおじさん「機械学習に数学はいらないよ」
246デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 14:23:44.68ID:syyLl6c1M ソフト使うだけなら数学いらんわね
247デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173])
2019/10/14(月) 14:26:05.12ID:daX/fZMnF 適当にデータ放り込んで適当な手法を選択してなんとなく精度が良さそうなのを選ぶだけで成立する仕事なら数学など不要
普通の企業や研究室ではそんなものに金なんて出してくれないがな
普通の企業や研究室ではそんなものに金なんて出してくれないがな
248デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/14(月) 14:31:10.41ID:JdA0BOgta >>247
そういう仕事は既にAutoMLに取られつつあるね
そういう仕事は既にAutoMLに取られつつあるね
249デフォルトの名無しさん (アメ MM29-2D7i [218.225.236.127])
2019/10/14(月) 14:31:49.76ID:XFqMr8NbM というかこの世界ももう土方がいるのか
250デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/14(月) 14:40:16.73ID:VuPQ6UMJ0 >>240
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
251デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 14:42:39.82ID:syyLl6c1M 最初から土方しかいないから。
今もほとんど土方。
できる人は研究者か大学教員になってる。
今もほとんど土方。
できる人は研究者か大学教員になってる。
252デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173])
2019/10/14(月) 14:47:46.87ID:daX/fZMnF この分野はむしろ大学より民間の方がやりやすいから本来なら博士行くような人も修士までにしてとっとと成果出せる環境に移ろうとする人が多くなってきた印象
253デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
2019/10/14(月) 15:08:32.93ID:utYACZDud >>242
ありがとう。調べてみます。
ありがとう。調べてみます。
254デフォルトの名無しさん (ワッチョイ 0359-o74w [133.175.166.116])
2019/10/14(月) 15:10:40.92ID:4WTqwCCG0 今ならまだ簡単にデータエンジニア目指せるけど、
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね
255デフォルトの名無しさん (ワッチョイ 0359-o74w [133.175.166.116])
2019/10/14(月) 15:13:07.19ID:4WTqwCCG0256デフォルトの名無しさん (ワッチョイ 8302-o74w [101.142.8.160])
2019/10/14(月) 15:22:52.88ID:drx0D0Vb0 博士持ち or ベテラン < 精度の高い競馬予測モデル開発者
データを集めてくるところが始まるから、Kaggleより難易度高い
データを集めてくるところが始まるから、Kaggleより難易度高い
257デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 16:12:47.05ID:syyLl6c1M 博士号持ちといってもピンキリ
天才的な人もいるし、
とんでもない馬鹿もいる。
2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!
天才的な人もいるし、
とんでもない馬鹿もいる。
2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!
258デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/14(月) 17:26:03.50ID:JdA0BOgta >>257
例えばどこの院
例えばどこの院
259デフォルトの名無しさん (ワッチョイ ab82-IE9o [113.20.238.175])
2019/10/14(月) 18:51:16.60ID:/yNf4ic50 >>255
DSって何ですか?
DSって何ですか?
260デフォルトの名無しさん (エムゾネ FF43-1wBF [49.106.193.20])
2019/10/14(月) 18:55:58.36ID:ljIrzJ7BF Deta
Saiensu
Saiensu
261デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237])
2019/10/14(月) 19:22:19.56ID:lAL0R9ntM サイエンティストな
262デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
2019/10/14(月) 20:18:41.61ID:DQ9Yh+dwM >>258
知り合いが現在
そこの教員やってるので
大学名は書かないけど
博士論文は国会図書館に
全て収蔵されるので
みればすぐわかる。
ヒントとしては、
なんと中国語でレポート2枚ぐらいの
博士論文がある!
日本の恥!
抹殺したい!
知り合いが現在
そこの教員やってるので
大学名は書かないけど
博士論文は国会図書館に
全て収蔵されるので
みればすぐわかる。
ヒントとしては、
なんと中国語でレポート2枚ぐらいの
博士論文がある!
日本の恥!
抹殺したい!
263デフォルトの名無しさん (ワッチョイ ab82-IE9o [113.20.238.175])
2019/10/14(月) 21:29:45.45ID:/yNf4ic50 ディープラーニング発明した人に
ノーベル賞やるべきだと思う。
ノーベル賞やるべきだと思う。
264デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237])
2019/10/14(月) 21:34:26.95ID:lAL0R9ntM そんな人おらん
ローゼン・ブラッドからはじまって(もっと前から遡れる?
カナダ人のチームがドロップアウトを考えた時点で弾けたんだ
ローゼン・ブラッドからはじまって(もっと前から遡れる?
カナダ人のチームがドロップアウトを考えた時点で弾けたんだ
265デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237])
2019/10/14(月) 21:35:46.34ID:lAL0R9ntM メダル獲れなかったkaggle用のnoteをgithubに載せてしまった。はずかしー
これで就活だあ〜。おーッ!
これで就活だあ〜。おーッ!
266デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/14(月) 23:09:10.36ID:JdA0BOgta >>263
チューリング賞はとった
チューリング賞はとった
267デフォルトの名無しさん (ワッチョイ 9501-o74w [126.25.131.86])
2019/10/14(月) 23:23:40.59ID:Dfy8oKXF0 チューリング賞は賞自体よりも取ってる人のがたいてい有名っていう。。
268デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
2019/10/15(火) 02:28:14.05ID:KLW/euVzM 甘利さんか?
269デフォルトの名無しさん (ブーイモ MM43-HLBv [49.239.65.167])
2019/10/15(火) 06:10:05.34ID:I8iXAPqNM 競馬予想みたいにデータ収集含めて特定の領域に特化したモデル作れる人だけが勝つようになるかね、、、全く潰しのきかない職業になりそうですね。
270デフォルトの名無しさん (ワッチョイ 35b0-+TD/ [180.29.199.198])
2019/10/15(火) 06:37:37.44ID:7FHw0Vhl0 ゲームの自動生成やりたいから勉強してるけどそういう職業目指してない
271デフォルトの名無しさん (アウアウカー Sa51-KA+R [182.251.40.158])
2019/10/15(火) 07:35:51.98ID:5lPGjOaaa >>269
田倉寛史は失業するな。
田倉寛史は失業するな。
272デフォルトの名無しさん (ワントンキン MMa3-Hjv8 [153.154.213.244])
2019/10/15(火) 09:11:20.62ID:CGH1vHQcM 競馬って予想して勝てるゲームなの?
273デフォルトの名無しさん (ワッチョイ 1bd2-jjWQ [39.111.201.166])
2019/10/15(火) 09:52:34.15ID:BuCrjnSD0 kerasしかわかんね
274デフォルトの名無しさん (アウアウカー Sa51-Eud4 [182.251.107.240])
2019/10/15(火) 10:04:58.88ID:ST5HgM4Ya 統計学で競馬で食ってる人いる見たいよ
10年くらい前に聞いた話しだけど
10年くらい前に聞いた話しだけど
275デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.252])
2019/10/15(火) 10:08:19.91ID:CpmUKzMvM 統計学やらなくてもきちんと研究すれば勝てるらしいけど
才能の使い方としては空しいな
才能の使い方としては空しいな
276デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.117.54])
2019/10/15(火) 10:31:23.58ID:YjTx8zIDa 佐々木洋佑の予想。
277デフォルトの名無しさん (スフッ Sd43-w6Hz [49.104.12.227])
2019/10/15(火) 10:36:34.51ID:tidBIruUd 控除率25%の競馬で勝とうとするならもっと楽に勝てるとこに注力した方がましやろ
278デフォルトの名無しさん (ワッチョイ 3555-TmsB [180.44.111.72])
2019/10/15(火) 10:52:22.27ID:AlK2cYWx0 >>277
FXとか?
FXとか?
279デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.252])
2019/10/15(火) 11:24:20.27ID:CpmUKzMvM FXより競馬の方が百倍楽でしょ
勝つために必要なデータを取れればだけど
勝つために必要なデータを取れればだけど
280デフォルトの名無しさん (オッペケ Sr61-uMWA [126.255.149.234])
2019/10/15(火) 12:32:17.34ID:2+ahF6drr >>221
層が多いほうが表現力が高い
教師データ数に対して異常に多いパラメータは、なんで性能が伸びるかよく分からない。
パラメータの中にはあたりくじがあるのかもという、宝くじ仮設なるものがあるけれどどうなのでしょう?
層が多いほうが表現力が高い
教師データ数に対して異常に多いパラメータは、なんで性能が伸びるかよく分からない。
パラメータの中にはあたりくじがあるのかもという、宝くじ仮設なるものがあるけれどどうなのでしょう?
281デフォルトの名無しさん (ワッチョイ 35a0-o74w [110.4.207.23])
2019/10/15(火) 13:03:36.76ID:uSQ3MvZ60 テーブルデータの解析って、nnをつかっても2層や3層だから、ぜんぜんdeepじゃないよね
営業の人はそれでもディープラーニングっていうんだろうなあ
営業の人はそれでもディープラーニングっていうんだろうなあ
282デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
2019/10/15(火) 13:13:25.51ID:KLW/euVzM テーブルデータってなーに?
283デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59])
2019/10/15(火) 16:36:14.39ID:OfiTiE/Hr >>221
深くする程損失関数が凸関数に近くなり最適解に辿り着きやすくなるかも知れないことが最近の理論研究で判明してきている
深くする程損失関数が凸関数に近くなり最適解に辿り着きやすくなるかも知れないことが最近の理論研究で判明してきている
284デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/15(火) 23:48:10.86ID:1HOx40aj0 層を増やすと普通にバックプロパゲーションだけでは上手く学習できないんじゃね
どうするんだっけ
どうするんだっけ
285デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.4])
2019/10/16(水) 07:22:30.93ID:399vjxSUM 甘利さんに聞く
286デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
2019/10/16(水) 12:21:07.84ID:KK2SmrYwd ドロップアウトって
実際に人間の脳でも行われているのでしょうか?
実際に人間の脳でも行われているのでしょうか?
287デフォルトの名無しさん (アウアウカー Sa51-Eud4 [182.251.111.73])
2019/10/16(水) 12:33:04.35ID:ur38NdBia インドのリキシャの話は知ってるか?
人間は一度認識すれば多少形は違ってもリキシャだとわかる
おそらく人間は逆で、学習したデータを柔軟に他の認識の補助とすることができる
人間は一度認識すれば多少形は違ってもリキシャだとわかる
おそらく人間は逆で、学習したデータを柔軟に他の認識の補助とすることができる
288デフォルトの名無しさん (ワッチョイ 9501-tBfs [126.48.125.229])
2019/10/16(水) 12:49:56.91ID:Bk7OFSs90 シミュラクラ現象のことか
289デフォルトの名無しさん (ワッチョイ 1bad-wpN8 [119.170.39.15])
2019/10/16(水) 12:55:37.60ID:/VU6ev+W0 kerasで作ったモデルをtfjsで読み込んだんだが
訓練してたときのinputがnp.arrayみたいで
tfjsでpred出来なくて積んだんだが(´・ω・`)
numjsとnumpyって同値じゃないよね?(´・ω・`)
訓練してたときのinputがnp.arrayみたいで
tfjsでpred出来なくて積んだんだが(´・ω・`)
numjsとnumpyって同値じゃないよね?(´・ω・`)
290デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.48])
2019/10/16(水) 13:17:05.59ID:YrOVtgjKM■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【前橋市】小川晶前市長とラブホテルで打ち合わせをした54歳男性職員を停職処分 今月末で依願退職するという [シャチ★]
- 【おこめ券】鈴木農相 米価維持の意図「一切ない」★2 [ぐれ★]
- 【埼玉】「無免許で高速道路で事故」トラックの追突事故で10代男性死亡 無免許過失運転致死の疑いでトルコ国籍の男(22)逮捕 戸田市 [ぐれ★]
- バリ島で男子生徒ら集団万引きか、防犯カメラ映像が拡散 京都の大谷中学・高校が「窃盗行為」謝罪★6 [七波羅探題★]
- 広島・廿日市、おこめ券配布せず 全市民に3000円現金給付へ [どどん★]
- 【警視庁】走行中の電車で女性に露出した下半身押しつけたか 無職の男(46)逮捕「チャンスがあればいつでもやる」 [nita★]
- アメップ「ジャップ安すぎワロタ。飛行機代込でもフロリダより東京のディズニー行った方が安いまである」 [649381991]
- 【実況】博衣こよりのえちえちチーズケーキを仕込み(雑談あり)🧪★2
- 【悲報】マクベ大佐「いい音色だろ(壺を弾く)」僕副官「統一教会っすかw」マクベ大佐「北宋だ(怒)」 [616817505]
- 【速報】1ポンド210円で日英GDP逆転(残り1.5円)...世界6位の経済規模に転落 [237216734]
- じゃあ何券だったら、日本人は満足したんだよ [452836546]
- 朝日新聞記者「中国軍のレーダー照射はこめかみに銃を突きつけられたのと同じ。僕なら反撃して撃墜してる」高市 [931948549]
