機械学習とデータマイニングについて語れ若人
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
Machine Learningを用いた論文一覧2018
https://shiropen.com/seamless/machine-learning/2018
2017年のディープラーニング論文100選
https://qiita.com/sakaiakira/items/f225b670bea6d851c7ea
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング23
https://mevius.5ch.net/test/read.cgi/tech/1551352040/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:----: EXT was configured
【統計分析】機械学習・データマイニング24
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん (ワッチョイ 8b01-ZQWL [60.65.176.121])
2019/05/01(水) 10:39:45.57ID:Wg+J+pQH0468デフォルトの名無しさん (ワッチョイ fb68-dCWx [119.230.191.175])
2019/05/24(金) 16:58:18.90ID:kUwj1SkL0 機械学習には適切なデータが大量に必要と言っている人がいたけど、
別にそこまで適切ではなくてもいいんだよ
ある程度信頼できれば
https://gigazine.net/news/20190524-google-deep-learning-depth/
別にそこまで適切ではなくてもいいんだよ
ある程度信頼できれば
https://gigazine.net/news/20190524-google-deep-learning-depth/
469デフォルトの名無しさん (ワッチョイ fb68-dCWx [119.230.191.175])
2019/05/24(金) 16:58:34.59ID:kUwj1SkL0 >>467
GANな
GANな
470デフォルトの名無しさん (ワッチョイ 135a-09Ye [61.114.210.151])
2019/05/24(金) 18:11:30.03ID:s0JZ13JH0471デフォルトの名無しさん (トンモー MM2d-naOy [210.142.95.49])
2019/05/24(金) 21:35:22.94ID:MIOpJWB2M そうそう
ビッグデータというけど
続けて標本サイズの小さい仕事をやってる。
n=40個ほどしかないけど
説明変数200ほどあって
14種類の機械学習試したら
どの方法でもなんとか予測できた。
同僚の手腕がいいので助かってる。
ビッグデータというけど
続けて標本サイズの小さい仕事をやってる。
n=40個ほどしかないけど
説明変数200ほどあって
14種類の機械学習試したら
どの方法でもなんとか予測できた。
同僚の手腕がいいので助かってる。
472デフォルトの名無しさん (ワッチョイ 3302-9b2Z [101.142.8.160])
2019/05/24(金) 21:49:38.41ID:t/lJBqRi0 教師無しではデータの量と質が要求されるけど、
教師有りでは過学習に陥らないように学習させれば、1/10ぐらいの量でもイケルという認識
教師有りでは過学習に陥らないように学習させれば、1/10ぐらいの量でもイケルという認識
473デフォルトの名無しさん (ワッチョイ fb66-29ZT [183.77.216.198])
2019/05/25(土) 06:04:38.31ID:uqI/ytR10 嘘松( ´・∀・`)ソーナンダ
474デフォルトの名無しさん (ワッチョイ 2901-IIoa [126.109.69.164])
2019/05/25(土) 08:41:04.76ID:GmewsWkw0 GUNは業務では使えんけど見栄えいいから公開に向いてるってだけだぞ。
475デフォルトの名無しさん (ワッチョイ fb66-h/tS [183.77.216.198])
2019/05/25(土) 08:46:24.90ID:uqI/ytR10 ぐん?
476デフォルトの名無しさん (アウアウエー Sae3-dCWx [111.239.67.201])
2019/05/25(土) 09:03:03.05ID:H9G4SGp2a477デフォルトの名無しさん (ワッチョイ 5394-j5mF [115.37.91.6])
2019/05/25(土) 09:20:50.22ID:/FLyHH1C0 教師データの水増しに使われてるよ
478デフォルトの名無しさん (ワッチョイ 39ad-LXSb [124.144.197.178])
2019/05/25(土) 10:07:48.15ID:c7a1xFWv0 >>431
> どうやって仕事とってるの? どんな感じの内容?
「フリー」と書きましたけど、自営業というより「非正規」という意味で書きました。
元々統計学を専攻してたけど卒業してからIT企業にてSEやってました。
その会社でいろいろイヤなことがあって辞めて、
メーカー系列のPG作成のアルバイト募集で面接にいったとき、
統計学を専攻していたと言ったら
ちょうどデータ分析の人を探しているということで
アルバイトしませんか?といわれたのがはじまりです。
その後は、請負い、契約社員、SES契約、派遣社員と
いろいろな契約形態でやっていましたけど、
そろそろ正社員になるかもしれません。
正社員になると年収は少し下がりますけど、
もうすぐ不況になりそうな予感がするので、
さっさと正社員になったほうがいいと思っています。
> どうやって仕事とってるの? どんな感じの内容?
「フリー」と書きましたけど、自営業というより「非正規」という意味で書きました。
元々統計学を専攻してたけど卒業してからIT企業にてSEやってました。
その会社でいろいろイヤなことがあって辞めて、
メーカー系列のPG作成のアルバイト募集で面接にいったとき、
統計学を専攻していたと言ったら
ちょうどデータ分析の人を探しているということで
アルバイトしませんか?といわれたのがはじまりです。
その後は、請負い、契約社員、SES契約、派遣社員と
いろいろな契約形態でやっていましたけど、
そろそろ正社員になるかもしれません。
正社員になると年収は少し下がりますけど、
もうすぐ不況になりそうな予感がするので、
さっさと正社員になったほうがいいと思っています。
479デフォルトの名無しさん (アウアウウー Sa3d-MHYn [106.180.24.132])
2019/05/25(土) 10:55:38.38ID:HkxaNc28a 教師あり学習って教師なしに誤差ゼロの特徴量が加わっただけだから大した差はないのになぜか別物扱いしてしまう人が多いよね
480デフォルトの名無しさん (ワッチョイ b190-9b2Z [112.138.212.35])
2019/05/25(土) 11:19:48.34ID:yOpOJb7D0 伝統的に別として説明する教科書が多いからだよ
481デフォルトの名無しさん (ワッチョイ fbab-DMSQ [39.111.85.105])
2019/05/25(土) 11:24:42.57ID:dxGKXP5f0 フリーで月200万もらえてたとかじゃなさそうね。
482デフォルトの名無しさん (アウアウウー Sa3d-sFDG [106.180.15.171])
2019/05/25(土) 12:14:49.26ID:FHjbLbB2a483デフォルトの名無しさん (アウアウウー Sa3d-GYMe [106.180.2.26])
2019/05/25(土) 12:28:42.88ID:95Ybe8BPa ラベル以外の特徴量から何らかの方法でラベルに近そうなものを計算して、その計算結果と実際のラベルを比較して誤差を調べる
誤差が大きければ計算方法を修正する
そうして最適なラベルの算出方法を決定するわけで、「予測に使う」というのが学習過程で使われるという意味ならラベルもその他の特徴量もしっかり予測に使われている
教師ありではラベルは絶対的に正しいこと(=誤差ゼロ)を前提とするのでラベルとの誤差が精度の良い評価対象になるが、
教師なしでは誤差混じりの特徴量しか得られなかったがために別の評価指標を使っているだけのこと
理論の上では本質的な違いはないんだよ
誤差が大きければ計算方法を修正する
そうして最適なラベルの算出方法を決定するわけで、「予測に使う」というのが学習過程で使われるという意味ならラベルもその他の特徴量もしっかり予測に使われている
教師ありではラベルは絶対的に正しいこと(=誤差ゼロ)を前提とするのでラベルとの誤差が精度の良い評価対象になるが、
教師なしでは誤差混じりの特徴量しか得られなかったがために別の評価指標を使っているだけのこと
理論の上では本質的な違いはないんだよ
484デフォルトの名無しさん (ワッチョイ fb66-h/tS [183.77.216.198])
2019/05/25(土) 12:49:19.46ID:uqI/ytR10 損失、じゃなくて?
誤差なの?
誤差なの?
485デフォルトの名無しさん (オッペケ Sre5-sFDG [126.208.164.185])
2019/05/25(土) 12:55:03.49ID:9EmqmScDr >>483
学習途中の話?予測に使うというのはモデルに入力するという意味
運用時にラベルは与えられないだろ?
教師なしは学習時と運用時で使える情報は同じだが教師ありは違う
自動車と金槌の本質的な違いは?って聞かれても答えに困るわ
逆に理論のどこを見て本質的に同じだと思うのか
用語の意味を都合よく解釈しているようにしか思えない
学習途中の話?予測に使うというのはモデルに入力するという意味
運用時にラベルは与えられないだろ?
教師なしは学習時と運用時で使える情報は同じだが教師ありは違う
自動車と金槌の本質的な違いは?って聞かれても答えに困るわ
逆に理論のどこを見て本質的に同じだと思うのか
用語の意味を都合よく解釈しているようにしか思えない
486デフォルトの名無しさん (オッペケ Sre5-sFDG [126.208.164.185])
2019/05/25(土) 13:04:20.15ID:9EmqmScDr >>484
誤差の大小と損失の大小は同じなのでここではどちらでも良い
誤差の大小と損失の大小は同じなのでここではどちらでも良い
487デフォルトの名無しさん (ササクッテロ Spe5-rj+B [126.33.224.211])
2019/05/25(土) 13:07:36.46ID:t7lA5k1Lp >>483
前から教師ありとなしの本質的な差がないと主張する人がいて、その真意を聞きたかった
例えばMNISTで教師なしで分類したとする
全部で10種類とクラスの数を固定すれば、教師なしでもおそらく正しく分類してもらえ、本質的な差がないという主張は理解できる
ではクラスの数が不明としたらどうだろう?教師なしではどんなにデータを増やしてもクラスの数が不明な限り同じ結果は得られないだろう
この辺りの説明をしないで本質的に同じと説明すると、機械学習は本質的には最小二乗法と同じと言ってしまい炎上したのと同じ危うさがある
前から教師ありとなしの本質的な差がないと主張する人がいて、その真意を聞きたかった
例えばMNISTで教師なしで分類したとする
全部で10種類とクラスの数を固定すれば、教師なしでもおそらく正しく分類してもらえ、本質的な差がないという主張は理解できる
ではクラスの数が不明としたらどうだろう?教師なしではどんなにデータを増やしてもクラスの数が不明な限り同じ結果は得られないだろう
この辺りの説明をしないで本質的に同じと説明すると、機械学習は本質的には最小二乗法と同じと言ってしまい炎上したのと同じ危うさがある
488デフォルトの名無しさん (スップ Sd73-tXlI [1.66.103.210])
2019/05/25(土) 13:53:46.85ID:S47qxAlEd 元々数学的な手法がいろいろあって、機械学習の分野のやつが勝手に2つに分類しただけ。
教師有りと無しで基礎原理は大きく異なる。
教師有りと無しで基礎原理は大きく異なる。
489デフォルトの名無しさん (ワッチョイ 139c-mt45 [61.125.210.189])
2019/05/25(土) 14:05:38.03ID:O1zpSt3I0 まあ何らかのモデルの式のパラメーターを最大/最小にする問題と考えると大差はないかもしれん
正解ラベルとの誤差で式を立てるかそれ以外の式で立てるかどうかの違いでしかない
数学的に考えれば
正解ラベルとの誤差で式を立てるかそれ以外の式で立てるかどうかの違いでしかない
数学的に考えれば
490デフォルトの名無しさん (スップ Sd73-tXlI [1.66.103.210])
2019/05/25(土) 14:07:27.49ID:S47qxAlEd ???
491デフォルトの名無しさん (スップ Sd73-tXlI [1.66.103.210])
2019/05/25(土) 14:07:51.79ID:S47qxAlEd >>489
原理わかってないの?
原理わかってないの?
492デフォルトの名無しさん (スップ Sd73-tXlI [1.66.103.210])
2019/05/25(土) 14:09:45.78ID:S47qxAlEd 489の条件は絶対的でないよ
493デフォルトの名無しさん (ワンミングク MMd3-M5Km [153.235.70.219])
2019/05/25(土) 14:23:18.41ID:rW5FDb6DM ディープラーニング使ったらCGとかも今よりずっと低コストで作れるんだろうな
個人でスターウォーズなみの映画とか作れたりとか
特に流体の表現でかなり効果を発揮しそう
個人でスターウォーズなみの映画とか作れたりとか
特に流体の表現でかなり効果を発揮しそう
494デフォルトの名無しさん (アウアウウー Sa3d-j5mF [106.129.138.200])
2019/05/25(土) 15:42:51.81ID:/Qx1Z2J/a 3水準以上の多重比較検定は偶然の確率が上がるから棄却域を下げるっていうのが納得いかないんだけど
ABCの3水準があってAとBに差があるかだけが知りたい場合Cとの検定は関係ないのでは?(極論を言えばCとの検定を行わない)
どこかに差があるかを調べたい場合のみ有意水準を操作すればいいの?
ABCの3水準があってAとBに差があるかだけが知りたい場合Cとの検定は関係ないのでは?(極論を言えばCとの検定を行わない)
どこかに差があるかを調べたい場合のみ有意水準を操作すればいいの?
495デフォルトの名無しさん (アウアウウー Sa3d-sFDG [106.180.11.32])
2019/05/25(土) 15:49:22.03ID:LV9LUlXva >>489
そうだな、犬も猫も人間も哺乳類と考えると大差はないかもしれん
そうだな、犬も猫も人間も哺乳類と考えると大差はないかもしれん
496デフォルトの名無しさん (エムゾネ FF33-wLN0 [49.106.193.230])
2019/05/25(土) 16:19:05.08ID:997oQV33F データサイエンティスト育成講座
https://www.hanmoto.com/bd/isbn/9784839965259
https://www.hanmoto.com/bd/isbn/9784839965259
497デフォルトの名無しさん (エムゾネ FF33-wLN0 [49.106.193.230])
2019/05/25(土) 16:40:11.40ID:997oQV33F ・手取り足取りデータの前処理から予測モデルの作成、チューニングまで一通り網羅
・質の良い参考書がたくさん紹介されており、これから先もある程度示してくれる
・学術書でないので、安い
欠点: いずれも入門書である以上当たり前ですが
・アルゴリズムの数学的なところはすっとばし
・実務の前処理地獄はこんなもんじゃない
・この本の内容ができる程度で「AI人材」を名乗るな
・質の良い参考書がたくさん紹介されており、これから先もある程度示してくれる
・学術書でないので、安い
欠点: いずれも入門書である以上当たり前ですが
・アルゴリズムの数学的なところはすっとばし
・実務の前処理地獄はこんなもんじゃない
・この本の内容ができる程度で「AI人材」を名乗るな
498デフォルトの名無しさん (ワッチョイ fb66-h/tS [183.77.216.198])
2019/05/25(土) 16:42:30.74ID:uqI/ytR10 まず松尾豊の研究室から
論文とデータサイエンティストが生まれてから
本を出せや
論文とデータサイエンティストが生まれてから
本を出せや
499デフォルトの名無しさん (エムゾネ FF33-wLN0 [49.106.193.230])
2019/05/25(土) 16:45:51.62ID:997oQV33F 執筆者ではない
監修ですらない
監修ですらない
500デフォルトの名無しさん (ワッチョイ a109-tXlI [210.170.17.6])
2019/05/25(土) 17:10:51.99ID:UpoKtTek0 現在、AI事業が流行ってるわけではなく、AI事業を育成するための事業が流行中。
実績?わらわら。
実績?わらわら。
501デフォルトの名無しさん (アークセー Sxe5-wJnf [126.196.33.29])
2019/05/25(土) 17:21:31.34ID:MDBcKokxx >>494
若干スレ違いとも思うけど検定の多重性問題だね
ロジカルに考えると分かると思うよ
例えば3学級A, B, Cの算数の試験で、学級Cは他学級よりも優秀か調べたい
つまり (C > A) AND (C > B) を調べたい
検定としては(A = C) OR (B = C)を帰無仮説としてこれを棄却したい
棄却域をそれぞれ5%とすると、5%の可能性で(A = C)がFalse, (B = C)がFalseとなる
(A = C)と(B = C)の両方がFalseにならない限り、(A = C) OR (B = C)はFalseにならない
この場合はA = Cを帰無仮説とした検定とB = Cを帰無仮説とした検定の2つを行って良い
別のケースで、学級Aあるいは学級Bが学級Cよりも優秀か調べたい場合を考える
つまり (A > C) OR (B > C) を調べたい
検定としては(A = C) AND (B = C)を棄却したい
上記同様に棄却域をそれぞれ5%とすると、5%の可能性で(A = C)がFalse, (B = C)がFalseとなる
(A = C)と(B = C)のどちらかがFalseになると(A = C) AND (B = C)はFalseになってしまう
つまり棄却されやすくなってしまっているので有意水準を調整する必要がある
若干スレ違いとも思うけど検定の多重性問題だね
ロジカルに考えると分かると思うよ
例えば3学級A, B, Cの算数の試験で、学級Cは他学級よりも優秀か調べたい
つまり (C > A) AND (C > B) を調べたい
検定としては(A = C) OR (B = C)を帰無仮説としてこれを棄却したい
棄却域をそれぞれ5%とすると、5%の可能性で(A = C)がFalse, (B = C)がFalseとなる
(A = C)と(B = C)の両方がFalseにならない限り、(A = C) OR (B = C)はFalseにならない
この場合はA = Cを帰無仮説とした検定とB = Cを帰無仮説とした検定の2つを行って良い
別のケースで、学級Aあるいは学級Bが学級Cよりも優秀か調べたい場合を考える
つまり (A > C) OR (B > C) を調べたい
検定としては(A = C) AND (B = C)を棄却したい
上記同様に棄却域をそれぞれ5%とすると、5%の可能性で(A = C)がFalse, (B = C)がFalseとなる
(A = C)と(B = C)のどちらかがFalseになると(A = C) AND (B = C)はFalseになってしまう
つまり棄却されやすくなってしまっているので有意水準を調整する必要がある
502デフォルトの名無しさん (トンモー MM2d-naOy [210.142.95.180])
2019/05/25(土) 17:36:49.30ID:suGe7WeyM >>493
どゆふうに流体と関係あんの?
どゆふうに流体と関係あんの?
503デフォルトの名無しさん (ワッチョイ 09b0-YgKV [180.15.171.212])
2019/05/25(土) 18:13:45.67ID:BEAwB+2w0 >>496
この本見たけど初心者には訳わからんし上級者には役に立たなさそうで何とも惜しい感じがした
この本見たけど初心者には訳わからんし上級者には役に立たなさそうで何とも惜しい感じがした
504デフォルトの名無しさん (ワッチョイ f33e-M5Km [149.54.201.210])
2019/05/25(土) 18:20:19.51ID:69q3ULG00 >>502
流体の境界条件・初期条件に対する流体の解析処理結果を学習データとして使用すれば、それをもとに自動的に流体のアニメーションを生成してくれるものができるはずって意味です
今までの流体解析はスーパーコンピュータ使ったりしてすごくコスト高かったけどAI使えば低スペックPCでもよりリアルな流体表現ができるよねって話
流体の境界条件・初期条件に対する流体の解析処理結果を学習データとして使用すれば、それをもとに自動的に流体のアニメーションを生成してくれるものができるはずって意味です
今までの流体解析はスーパーコンピュータ使ったりしてすごくコスト高かったけどAI使えば低スペックPCでもよりリアルな流体表現ができるよねって話
505デフォルトの名無しさん (アウアウウー Sa3d-j5mF [106.129.83.38])
2019/05/25(土) 19:52:31.11ID:C+z4Q3r1a >>501
出したい結論次第ということか
あと質問なんだけど、
前者の帰無仮説の(A=C)と(B=C)をそれぞれ棄却域5%で検定したら
全体では棄却域1-(1-0.05)*(1-0.05)=9.75%で検定したことになりませんか?
出したい結論次第ということか
あと質問なんだけど、
前者の帰無仮説の(A=C)と(B=C)をそれぞれ棄却域5%で検定したら
全体では棄却域1-(1-0.05)*(1-0.05)=9.75%で検定したことになりませんか?
506デフォルトの名無しさん (アークセー Sxe5-wJnf [126.196.33.29])
2019/05/25(土) 21:18:20.43ID:MDBcKokxx >>505
前者は(A=C)の検定と(B=C)の検定を合わせて全体でという考え方はしない
帰無仮説の説明からしたほうが良さそう
「Aの平均とBの平均は異なる」を検証するのに、わざわざ帰無仮説として
「Aの平均とBの平均は同じである(A = B)」という仮説をするのか?
それは「同じである」ことはケースとして1ケースしかないが
同じでないことはケースが無限に存在し検証ができない
「平均が同じ」という仮説を立てることで、現在発生している状況が
どのくらい起こりにくいことなのかを計算することができる
後者の(A = B) AND (B = C)は書き直せばA = B = Cで
これはケースとしては1ケースしかないので帰無仮説として利用可能である
しかし前者の(A = B) OR (B = C)は、片方を満たせばもう片方は無限のケースを許してしまい
これは帰無仮説として設定しても計算できない
大元の質問に戻って、ABCの3水準がある場合にCの検定をする必要がないのでは?
という質問については、帰無仮説として「A=B=C」が設定できないのであれば
当然多重比較検定の前提条件を満たしていない
前者は(A=C)の検定と(B=C)の検定を合わせて全体でという考え方はしない
帰無仮説の説明からしたほうが良さそう
「Aの平均とBの平均は異なる」を検証するのに、わざわざ帰無仮説として
「Aの平均とBの平均は同じである(A = B)」という仮説をするのか?
それは「同じである」ことはケースとして1ケースしかないが
同じでないことはケースが無限に存在し検証ができない
「平均が同じ」という仮説を立てることで、現在発生している状況が
どのくらい起こりにくいことなのかを計算することができる
後者の(A = B) AND (B = C)は書き直せばA = B = Cで
これはケースとしては1ケースしかないので帰無仮説として利用可能である
しかし前者の(A = B) OR (B = C)は、片方を満たせばもう片方は無限のケースを許してしまい
これは帰無仮説として設定しても計算できない
大元の質問に戻って、ABCの3水準がある場合にCの検定をする必要がないのでは?
という質問については、帰無仮説として「A=B=C」が設定できないのであれば
当然多重比較検定の前提条件を満たしていない
507デフォルトの名無しさん (ワッチョイ b190-9b2Z [112.138.212.35])
2019/05/25(土) 21:54:09.32ID:yOpOJb7D0 >今までの流体解析はスーパーコンピュータ使ったりしてすごくコスト高かったけどAI使えば低スペックPCでもよりリアルな流体表現ができるよねって話
ありえねーわ。
微分方程式の数値解求めるアルゴリズムと
補間曲線フィッティングするアルゴリズムは目的も用途も別。
ちなみにCAEとAIは相性自体は良い。
CAEはデータを無限に生成できるからな。
昔からアンテナシミュレーションソフトに最適化っていう機能あって
古い機械学習アルゴリズムがついていたりした。
ありえねーわ。
微分方程式の数値解求めるアルゴリズムと
補間曲線フィッティングするアルゴリズムは目的も用途も別。
ちなみにCAEとAIは相性自体は良い。
CAEはデータを無限に生成できるからな。
昔からアンテナシミュレーションソフトに最適化っていう機能あって
古い機械学習アルゴリズムがついていたりした。
508デフォルトの名無しさん (ワッチョイ 535c-j5mF [115.36.224.159])
2019/05/25(土) 22:17:07.06ID:j+1UCpGZ0 >>506
同時にfalse positiveが発生しない限り間違って棄却されないから問題ないってことか
同時にfalse positiveが発生しない限り間違って棄却されないから問題ないってことか
509デフォルトの名無しさん (ワッチョイ f33e-M5Km [149.54.201.210])
2019/05/26(日) 02:54:23.04ID:Twzbio4W0510デフォルトの名無しさん (ワッチョイ f33e-M5Km [149.54.201.210])
2019/05/26(日) 15:06:35.97ID:Twzbio4W0 >>509
今ゲーム業界はレイトレーシングだなんだと騒いでるけどこの技術が確立されたらより現実と見分けがつかないグラフィックのゲームとかできそうだね
今ゲーム業界はレイトレーシングだなんだと騒いでるけどこの技術が確立されたらより現実と見分けがつかないグラフィックのゲームとかできそうだね
511デフォルトの名無しさん (オッペケ Sre5-sFDG [126.208.165.195])
2019/05/26(日) 15:41:51.01ID:7eYATO63r sim2realとか使って荒いシミュレーションで大雑把なグラフィックを作ってAIでリアルに仕上げたりできそうだね
512デフォルトの名無しさん (ワッチョイ 9940-6B7C [118.104.19.52])
2019/05/26(日) 15:43:31.27ID:FDD59Vgs0 今の機械学習では仮説形成と演繹ができないと言われているが
仮説と演繹と帰納を識別できる判別器を作れないものなの?
仮説と演繹と帰納を識別できる判別器を作れないものなの?
513デフォルトの名無しさん (アウアウエー Sae3-LXSb [111.239.35.246])
2019/05/26(日) 15:49:47.77ID:KAaQkTQwa 演繹しまくりじゃね
514デフォルトの名無しさん (ワッチョイ 9940-6B7C [118.104.19.52])
2019/05/26(日) 16:06:05.73ID:FDD59Vgs0515デフォルトの名無しさん (ササクッテロ Spe5-rj+B [126.33.224.211])
2019/05/26(日) 16:07:30.86ID:jVNot2dUp 分類としては3つしかないけど難しそうだね
--(帰納)-->(仮説)--(演繹)-->
ループとかも問題になりそう
ニワトリ → 判別機 → 卵の演繹です!
卵 → 判別機 → ニワトリの演繹です!
--(帰納)-->(仮説)--(演繹)-->
ループとかも問題になりそう
ニワトリ → 判別機 → 卵の演繹です!
卵 → 判別機 → ニワトリの演繹です!
516デフォルトの名無しさん (ワッチョイ fb66-29ZT [183.77.216.198])
2019/05/26(日) 18:28:41.21ID:ZW+JHuoB0 必要か?
517デフォルトの名無しさん (アウアウウー Sa3d-sFDG [106.180.11.235])
2019/05/26(日) 19:59:54.33ID:MRHfC0tka >>514
ニューラルネット自体が関数近似器でしか無いから根本的に厳しいような気もする
ニューラルネット自体が関数近似器でしか無いから根本的に厳しいような気もする
518デフォルトの名無しさん (ワッチョイ 2901-IIoa [126.109.69.164])
2019/05/26(日) 20:03:16.17ID:Suq0krAi0 その手のことは組合せ爆発を伴うから
機械学習で連続的な取り扱いで楽することが流行っとるわけよ。
機械学習で連続的な取り扱いで楽することが流行っとるわけよ。
519デフォルトの名無しさん (アウアウウー Sa3d-sFDG [106.180.11.235])
2019/05/26(日) 20:05:37.77ID:MRHfC0tka というか演繹って機械学習と真逆の考えだからなあ
出発点の事実から論理をどう組み上げるかだから学習の余地は無くて、組合せ最適化あたりだろうか
出発点の事実から論理をどう組み上げるかだから学習の余地は無くて、組合せ最適化あたりだろうか
520デフォルトの名無しさん (アウアウクー MM65-Ni/X [36.11.225.75])
2019/05/27(月) 01:28:00.88ID:CXLCqwWfM 学習した識別器をつかって答えを予測することは演繹とは少し違うのかな
そこら辺の概念的なことをよく理解できていない
そこら辺の概念的なことをよく理解できていない
521デフォルトの名無しさん (ワッチョイ f33e-M5Km [149.54.201.210])
2019/05/27(月) 05:32:58.30ID:t6QjrYpW0 バックプロパゲーションについて勉強してます
https://qiita.com/43x2/items/50b55623c890564f1893
このページの式13.14.15に突然yって出てくるんですがこれはどういういみですか?
何故ここでyが出てくるのかわかりません
どなたかわかりやすく教えていただけないでしょうか?
https://qiita.com/43x2/items/50b55623c890564f1893
このページの式13.14.15に突然yって出てくるんですがこれはどういういみですか?
何故ここでyが出てくるのかわかりません
どなたかわかりやすく教えていただけないでしょうか?
522デフォルトの名無しさん (ワッチョイ 2901-IIoa [126.109.69.164])
2019/05/27(月) 07:48:28.29ID:DsUkLbuS0 >>521
(9)式の y のことだよ。(10)式の微分を考えると出てくる。
(9)式の y のことだよ。(10)式の微分を考えると出てくる。
523デフォルトの名無しさん (ワッチョイ f33e-M5Km [149.54.201.210])
2019/05/27(月) 07:54:02.92ID:t6QjrYpW0 >>522
なるほど!ありがとうございます
なるほど!ありがとうございます
524デフォルトの名無しさん (アウアウクー MM65-5CNr [36.11.224.64])
2019/05/27(月) 11:50:06.57ID:KdEWqt5uM 初歩的な質問で申し訳ないのですが
2値分類の評価指標に関して教えて下さい
accuracyはデータが偏ってる場合には適さないという理由は理解できました
データの割合が均等な場合(正常50% 異常50%)の場合でもaccuracyは評価に適していないのでしょうか?
2値分類の評価指標に関して教えて下さい
accuracyはデータが偏ってる場合には適さないという理由は理解できました
データの割合が均等な場合(正常50% 異常50%)の場合でもaccuracyは評価に適していないのでしょうか?
525デフォルトの名無しさん (ササクッテロラ Spe5-rj+B [126.199.21.62])
2019/05/27(月) 13:29:27.61ID:/16uSnZGp >>524
例えば犬と猫の写真があって
犬の写真を犬と判断 TP
犬の写真を猫と判断 TN
猫の写真を猫と判断 FP
猫の写真を犬と判断 FN
Acc = (TP+TN)/(TP+TN+FP+FN)
だから、TPとTNは式の形から全く等価
犬を猫と判断しまくってもOKなの?
あなたのやりたいことがOKなら使ってもいいし
NGなら別の指標
例えば犬と猫の写真があって
犬の写真を犬と判断 TP
犬の写真を猫と判断 TN
猫の写真を猫と判断 FP
猫の写真を犬と判断 FN
Acc = (TP+TN)/(TP+TN+FP+FN)
だから、TPとTNは式の形から全く等価
犬を猫と判断しまくってもOKなの?
あなたのやりたいことがOKなら使ってもいいし
NGなら別の指標
526デフォルトの名無しさん (ササクッテロラ Spe5-rj+B [126.199.21.62])
2019/05/27(月) 14:54:42.55ID:/16uSnZGp 思いっきりミスってた
こういうのは犬とか猫より正常、異常のが間違いがないな
正常な写真をX枚、正常を正常と判断する確率をα
異常な写真をY枚、異常を異常と判断する確率をβ
とすると、それぞれの枚数は
TP = αX
TN = βY
FN = (1-α)X
FP = (1-β)Y
Acc = (αX + βY) / (X + Y)
仮にXとYが同じ枚数ならX=Yとして(α+β)/2
偏りがなければ使っても良いかといえば、αとβを等価に扱って良ければOKだし、等価に扱えないなら別の指標
こういうのは犬とか猫より正常、異常のが間違いがないな
正常な写真をX枚、正常を正常と判断する確率をα
異常な写真をY枚、異常を異常と判断する確率をβ
とすると、それぞれの枚数は
TP = αX
TN = βY
FN = (1-α)X
FP = (1-β)Y
Acc = (αX + βY) / (X + Y)
仮にXとYが同じ枚数ならX=Yとして(α+β)/2
偏りがなければ使っても良いかといえば、αとβを等価に扱って良ければOKだし、等価に扱えないなら別の指標
527デフォルトの名無しさん (アウアウクー MM65-5CNr [36.11.224.64])
2019/05/27(月) 17:23:55.48ID:KdEWqt5uM528デフォルトの名無しさん (ワッチョイ d947-bH/r [150.249.206.28])
2019/05/27(月) 17:28:43.12ID:KJQjBYp00 タスクとエラーのリスクに応じて個々で検討すべき事柄だから
大体は省略されてる
大体は省略されてる
529デフォルトの名無しさん (JP 0H0b-9b2Z [219.163.139.27])
2019/05/27(月) 18:05:50.75ID:otLNcE2UH 機械学習にしろディープラーニングにしろデータを元に「学習」するわけじゃないですか
でその「学習した結果」に新しいデータを通すとそのデータに対応する答えを「結果」が弾き出しますよね
このときの「結果」って一体なんなんでしょうか。小人さんがマシンの中にいるわけでもなし
パラメータがx1x2...xnってあったときに結果としてf(x1, x2,....xn)な関数が生成されるみたいな理解でいいんでしょうか?
もしそうならその関数が実際どんな数式?なのか見る術はありますか?kerasで勉強しています
でその「学習した結果」に新しいデータを通すとそのデータに対応する答えを「結果」が弾き出しますよね
このときの「結果」って一体なんなんでしょうか。小人さんがマシンの中にいるわけでもなし
パラメータがx1x2...xnってあったときに結果としてf(x1, x2,....xn)な関数が生成されるみたいな理解でいいんでしょうか?
もしそうならその関数が実際どんな数式?なのか見る術はありますか?kerasで勉強しています
530デフォルトの名無しさん (アウアウウー Sa3d-j5mF [106.129.122.140])
2019/05/27(月) 18:22:40.43ID:2deMEJc2a 補間
531デフォルトの名無しさん (アウアウウー Sa3d-j5mF [106.129.122.140])
2019/05/27(月) 18:24:14.91ID:2deMEJc2a 一回単純なモデルでいいからライブラリ使わずに実装してみるといいよ
532デフォルトの名無しさん (ワッチョイ b17c-LXSb [122.215.159.99])
2019/05/27(月) 18:57:20.00ID:cl2rg6uY0 補間だが演繹
533デフォルトの名無しさん (トンモー MM2d-naOy [210.142.95.189])
2019/05/27(月) 19:00:05.40ID:Ne4UfqvxM あー、今日も仕事終わった
だりィ、
データ分析やらせろボケ上司!
書類仕事はイャダ−!
だりィ、
データ分析やらせろボケ上司!
書類仕事はイャダ−!
534デフォルトの名無しさん (ブーイモ MM2d-DMSQ [210.149.254.241])
2019/05/27(月) 19:02:36.82ID:w8JoPjjJM データ見せる為のWebUI作ってる。書類よりはマシだな
535デフォルトの名無しさん (アウアウウー Sa3d-sFDG [106.180.10.31])
2019/05/27(月) 19:12:00.16ID:nYz1CYbBa536デフォルトの名無しさん (ブーイモ MM2d-DMSQ [210.149.254.241])
2019/05/27(月) 19:20:32.76ID:w8JoPjjJM AI人材って普通に理系なだけだな
騒ぐほどのモンではないと思うけど、文系を引きずり下ろせるチャンスなわけだ
騒ぐほどのモンではないと思うけど、文系を引きずり下ろせるチャンスなわけだ
537デフォルトの名無しさん (バットンキン MMd3-pMMZ [153.233.209.255])
2019/05/27(月) 19:59:53.30ID:T/hWbhauM データサイエンスで経営戦略方面から射撃
AIエンジニアリングで花形現場からの射撃で十字放火や
AIエンジニアリングで花形現場からの射撃で十字放火や
538デフォルトの名無しさん (アウアウウー Sa3d-MHYn [106.180.21.204])
2019/05/27(月) 20:01:57.78ID:mqq2cpZZa それを安く使い捨てたいから文系様がAI人材量産計画を叫んでいるのが現状
539デフォルトの名無しさん (ワッチョイ fb66-h/tS [183.77.216.198])
2019/05/27(月) 20:01:58.26ID:cpnvt74A0 いや、sum関数やvba位の位置づけになるかと
540デフォルトの名無しさん (バットンキン MMd3-pMMZ [153.233.209.255])
2019/05/27(月) 20:10:01.28ID:T/hWbhauM 計算資源ドカ食いするExcelやでぇ
541デフォルトの名無しさん (ワッチョイ 31da-Fpyl [58.94.204.33])
2019/05/27(月) 20:12:55.37ID:izC7ByhK0 エクセルの最小二乗法は怪しくなかったか?
542デフォルトの名無しさん (ササクッテロラ Spe5-rj+B [126.199.21.62])
2019/05/27(月) 20:23:42.82ID:/16uSnZGp >>529
イメージとしては間違ってないと思う
kerasならmodel.layer[i].get_weights()で重み取れるから見ることはできるけど意味はないかな
AND OR XORくらいなら重み見て頑張れないこともないが
イメージとしては間違ってないと思う
kerasならmodel.layer[i].get_weights()で重み取れるから見ることはできるけど意味はないかな
AND OR XORくらいなら重み見て頑張れないこともないが
543デフォルトの名無しさん (ワッチョイ 396e-GX6Y [124.219.198.89])
2019/05/29(水) 21:10:53.74ID:AMD232/i0 パーセプトロンの勉強してる
分類問題なら出力層は当然その分類する項目の数になるだろうとは思うのね。0から4を判別するのに学習データのラベルが[0 0 1 0 0]みたいな
んで回帰問題の出力層のノードが複数になるケースってある?住宅価格予想みたいに答が一つに定まるのが回帰問題だから当然出力層はノード一つだよなとか思ってたんだけど
なんかそうじゃないっぽい?
分類問題なら出力層は当然その分類する項目の数になるだろうとは思うのね。0から4を判別するのに学習データのラベルが[0 0 1 0 0]みたいな
んで回帰問題の出力層のノードが複数になるケースってある?住宅価格予想みたいに答が一つに定まるのが回帰問題だから当然出力層はノード一つだよなとか思ってたんだけど
なんかそうじゃないっぽい?
544デフォルトの名無しさん (ワッチョイ ab82-nnqq [113.20.238.175])
2019/05/29(水) 21:13:20.60ID:7nrnLjkN0 >>543
勉強にお勧めの書籍やサイトはありますか?
勉強にお勧めの書籍やサイトはありますか?
545デフォルトの名無しさん (ワッチョイ 713d-CsTB [218.229.147.47])
2019/05/29(水) 22:11:55.58ID:XEw54qYY0 「15分後の株価」と「30分後の株価」とか
546デフォルトの名無しさん (ワッチョイ e146-dCWx [114.167.176.82])
2019/05/29(水) 22:17:48.69ID:qjKa/CEa0 >>545
株価予想って機械学習で一般人でできるのかね
どれだけ質のいい情報が入手できるかのほうが重要そう
トランプのツイッターが原因で中国の株が乱高下してても中国の個人投資家はなんで相場が動いてるのか分からんかったとかいう話聞いたし
株価予想って機械学習で一般人でできるのかね
どれだけ質のいい情報が入手できるかのほうが重要そう
トランプのツイッターが原因で中国の株が乱高下してても中国の個人投資家はなんで相場が動いてるのか分からんかったとかいう話聞いたし
547デフォルトの名無しさん (ワッチョイ 332d-d7ea [101.128.242.211])
2019/05/29(水) 22:32:21.01ID:tZl3oLaI0 株価って突発的な出来事の影響が大きそうだし予想できるもんなんかね
548デフォルトの名無しさん (アークセー Sxe5-rj+B [126.197.65.56])
2019/05/29(水) 22:32:43.30ID:pf0Cg+pWx549デフォルトの名無しさん (ワッチョイ 89a3-buEI [116.82.222.226])
2019/05/29(水) 22:36:38.33ID:uNZ63kmU0550デフォルトの名無しさん (アークセー Sxe5-rj+B [126.197.65.56])
2019/05/29(水) 22:37:08.35ID:pf0Cg+pWx >>547
予想というより結果を大事にする
ボラティリティ(分散)はGARCHでかなり上手くモデルに当てはまる
ボラティリティが予想できるなら、オプションで儲けられるはずだけど、そもそものオプション価格がそれを見越した価格設定がされていて手数料負けする
なので違うやり方になる
株価自身の予想は統計的には予想できないことになっている
でも、儲ける方法はある
こんな感じ?
予想というより結果を大事にする
ボラティリティ(分散)はGARCHでかなり上手くモデルに当てはまる
ボラティリティが予想できるなら、オプションで儲けられるはずだけど、そもそものオプション価格がそれを見越した価格設定がされていて手数料負けする
なので違うやり方になる
株価自身の予想は統計的には予想できないことになっている
でも、儲ける方法はある
こんな感じ?
551デフォルトの名無しさん (アウアウエー Sae3-dCWx [111.239.71.30])
2019/05/29(水) 22:38:46.58ID:DaGU3Mz0a 株価は短期なら意外と当たるんだが、
たまに来る、予想と違う方向へどかんと動いて固定
これが怖い。大体これにやられて退場する人が多い
最近だとリーマンショックとか。
たまに来る、予想と違う方向へどかんと動いて固定
これが怖い。大体これにやられて退場する人が多い
最近だとリーマンショックとか。
552デフォルトの名無しさん (アークセー Sxe5-rj+B [126.197.65.56])
2019/05/29(水) 22:42:11.57ID:pf0Cg+pWx あまり儲からないけど、ほぼ確実なのは鞘どりだね
連動する株価を反対売買する
これは機械学習するまでもなく従来の時系列データ解析で十分できるけど、今なら機械学習で簡単にできるよ
この方法は手数料がとにかく安くなるようにするのがポイント
連動する株価を反対売買する
これは機械学習するまでもなく従来の時系列データ解析で十分できるけど、今なら機械学習で簡単にできるよ
この方法は手数料がとにかく安くなるようにするのがポイント
553デフォルトの名無しさん (ワッチョイ e146-dCWx [114.167.176.82])
2019/05/29(水) 22:53:33.08ID:qjKa/CEa0 >>549
中国国内からは通常の方法ではtwitterとかgoogleとかyoutubeとかは見られないらしいよ
中国国内からは通常の方法ではtwitterとかgoogleとかyoutubeとかは見られないらしいよ
554デフォルトの名無しさん (ワッチョイ fbab-DMSQ [39.111.85.105])
2019/05/29(水) 23:20:45.39ID:w1YMyBUf0 VPNで何とでもなりそうだけど、どうなのかね
555デフォルトの名無しさん (ワッチョイ c666-pVhm [183.77.216.198])
2019/05/30(木) 06:16:41.72ID:3VEQV70R0 vpnでどうにかなった
556デフォルトの名無しさん (ワッチョイ 825a-8Ger [61.114.210.151])
2019/05/30(木) 09:08:02.19ID:8juV0fmw0 機械学習で株価って、ずいぶん前からやられていることだから
結果については、その人の力量次第
結果については、その人の力量次第
557デフォルトの名無しさん (ワッチョイ 2eda-yed5 [121.118.77.19])
2019/05/30(木) 10:22:31.99ID:3C4CVC+50 >>551
それでも儲けるハゲタカ
それでも儲けるハゲタカ
558デフォルトの名無しさん (アウアウウー Sac5-o5HR [106.161.120.33])
2019/05/30(木) 10:44:39.22ID:niFMShc3a 株価の予想に頼らない売買法さや抜き。
559デフォルトの名無しさん (ワッチョイ 825a-8Ger [61.114.210.151])
2019/05/30(木) 14:38:28.57ID:8juV0fmw0560デフォルトの名無しさん (アウアウクー MM51-o3Sf [36.11.224.28])
2019/05/30(木) 19:09:07.15ID:aU6K3cRFM transformerてcnnなの?
561デフォルトの名無しさん (アウウィフ FFc5-5O4J [106.171.80.231])
2019/05/30(木) 19:20:01.02ID:Ec3P7ZkhF >>543
出力5通りしかないなら3bit出力でもいけるはず
出力5通りしかないなら3bit出力でもいけるはず
562デフォルトの名無しさん (アウアウウー Sac5-buHZ [106.129.138.158])
2019/05/30(木) 19:52:55.23ID:0qwHKIKpa 2進数表現は分散表現だから個々のbitに意味がない限りone-hotの方がいい
563デフォルトの名無しさん (アウウィフ FFc5-5O4J [106.171.80.231])
2019/05/30(木) 20:41:03.18ID:Ec3P7ZkhF 人間の脳だとどっちなんだろ
564デフォルトの名無しさん (ワッチョイ b901-nKyM [126.109.69.164])
2019/05/30(木) 20:45:39.63ID:s4B+etfT0 理論上はデルタヘッジしときゃ儲かるんでないの?
565デフォルトの名無しさん (ササクッテロラ Sp91-CwJJ [126.199.21.62])
2019/05/30(木) 22:19:08.77ID:PBHpgwjDp >>564
鞘どりと同じで枚数を多く買って微調整が必要だから手数料負けする
デルタヘッジは相場が動けば儲かるように書かれてるけど、実際にやると始値終値で仕掛けない限り理想の価格で買えない
あとデルタ調整を毎日できるマメな性格と、急激に動いた時に即座に対応できる暇人の能力が必要になる
鞘どりと同じで枚数を多く買って微調整が必要だから手数料負けする
デルタヘッジは相場が動けば儲かるように書かれてるけど、実際にやると始値終値で仕掛けない限り理想の価格で買えない
あとデルタ調整を毎日できるマメな性格と、急激に動いた時に即座に対応できる暇人の能力が必要になる
566デフォルトの名無しさん (ワッチョイ b901-nKyM [126.109.69.164])
2019/05/30(木) 22:57:28.17ID:s4B+etfT0567デフォルトの名無しさん (ワッチョイ c666-pVhm [183.77.216.198])
2019/05/31(金) 08:33:35.49ID:8Nq4J3at0 TJOの本名ってなに?
著書を読みたい
著書を読みたい
■ このスレッドは過去ログ倉庫に格納されています
