【統計分析】機械学習・データマイニング25

■ このスレッドは過去ログ倉庫に格納されています
2019/06/27(木) 01:53:38.17ID:WayvZS+f0
機械学習とデータマイニングについて語れ若人

*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
Machine Learningを用いた論文一覧2018
https://shiropen.com/seamless/machine-learning/2018
2017年のディープラーニング論文100選
https://qiita.com/sakaiakira/items/f225b670bea6d851c7ea
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング23
https://mevius.5ch.net/test/read.cgi/tech/1551352040/
-

【統計分析】機械学習・データマイニング24
https://mevius.5ch.net/test/read.cgi/tech/1556674785/
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:----: EXT was configured
2デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.242])
垢版 |
2019/06/27(木) 07:57:36.23ID:IbKMjjoUM
2ゲットー!

ズザザザ−!
(超満員の電車内なのでAA貼れない!)
2019/06/27(木) 08:43:37.55ID:2tGE38CS0
4デフォルトの名無しさん (ワントンキン MM1f-hd/a [153.237.6.213])
垢版 |
2019/06/28(金) 08:25:13.31ID:cQT1BDVVM
意識のないAIなんてAIとは言わないよ
2019/06/28(金) 10:05:12.77ID:6rqNzILja
AI完全をクリアしてから考えればいい
意識云々いう奴は自己陶酔のオナ猿
6デフォルトの名無しさん (ワッチョイ 0301-SgbD [60.128.172.180])
垢版 |
2019/06/28(金) 16:26:34.11ID:BWz5SbEt0
多次元尺度構成法ってデータ間のユークリッド距離を見てユークリッド距離をほぼ再現できる別次元のデータ構成をつくりなおすってことで合ってる?
7デフォルトの名無しさん (ワッチョイ 537c-a57L [122.215.159.99])
垢版 |
2019/06/28(金) 16:29:44.88ID:L7hsi0hP0
距離を再現する必要はない
2019/06/28(金) 17:21:29.21ID:etZWCRnqd
>>6
違う
9デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.11])
垢版 |
2019/06/28(金) 18:57:47.38ID:HvoUsiIUM
>>8
ウソつくな馬鹿たれが!
10デフォルトの名無しさん (アウアウクー MMe7-Dq7D [36.11.224.231])
垢版 |
2019/06/28(金) 19:10:52.92ID:7pRqTRJTM
😭💦💦
11デフォルトの名無しさん (ワッチョイ 0301-SgbD [60.128.172.180])
垢版 |
2019/06/28(金) 22:19:19.82ID:BWz5SbEt0
いわゆる最小二乗法っていうのは正規線形モデル(つまり誤差項が正規分布に従う仮定の線形モデル)でほかの確率分布を想定するために一般化線形モデル(正規分布以外の分布にも従うことを想定するモデル)があるっていうことでいいんでしょうか?だれかおしえてください
私の認識では正規分布に従う仮定ならばパラメータの推定は最小二乗法という簡単な行列計算で行うことができるけど他の分布の仮定であれば一般化線形モデルのもと最適化アルゴリズムを利用した最尤法を行わなければいけないという理解なんだけどあってるのかな?
12デフォルトの名無しさん (ワッチョイ 0301-SgbD [60.128.172.180])
垢版 |
2019/06/28(金) 22:31:38.89ID:BWz5SbEt0
いわゆる最小二乗法っていうのは正規線形モデル(つまり誤差項が正規分布に従う仮定の線形モデル)でほかの確率分布を想定するために一般化線形モデル(正規分布以外の分布にも従うことを想定するモデル)があるっていうことでいいんでしょうか?だれかおしえてください
私の認識では正規分布に従う仮定ならばパラメータの推定は最小二乗法という簡単な行列計算で行うことができるけど他の分布の仮定であれば一般化線形モデルのもと最適化アルゴリズムを利用した最尤法を行わなければいけないという理解なんだけどあってるのかな?
2019/06/29(土) 06:26:54.34ID:Fhjv9Srvd
この前の目黒記念449,000円ごっつぁんです( ´∀`)/~~。
ラジオNIKKEI賞楽しみだな。
python一辺倒だったのを、統計解析部分をRに代えてやったら回収率が飛躍的にアップした。
Pythonはデータの取り出しに特化させるのが向いてるみたい。
14デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
垢版 |
2019/06/29(土) 09:34:37.29ID:GHQZkqP10
>>13
それは言語の問題ではない
Rで処理している事をpythonで処理すれば良いだけ
つまり統計処理自体の選択が適切ではなかった
あなたのミスだ
15デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
垢版 |
2019/06/29(土) 09:35:22.12ID:GHQZkqP10
>>13
前回うまくいったとして
今後10回とか繰り返したら損するかもしれないよ
16デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.11])
垢版 |
2019/06/29(土) 09:50:41.55ID:iogbVdf2M
>>11
>>12
質問の意味が分からん
2019/06/29(土) 10:01:58.78ID:c0pfCvxU0
>>12
文がごちゃついてるけど
合ってる
2019/06/29(土) 10:10:42.33ID:zdFJmU1ka
統計処理はRの方が楽なことが多いが統計学を理解していれば言語で結果が変わるなど起こらないはず
19デフォルトの名無しさん (ササクッテロラ Spe7-SgbD [126.199.196.189])
垢版 |
2019/06/29(土) 10:56:23.50ID:8JoTMZH0p
みんな統計検定準一級って持ってる?
機械学習やるなら持ってた方がいいかなって思ってるけどどう?
2019/06/29(土) 11:36:03.57ID:I2beZNSz0
機械学習に数学は不要
統計学に数学は必要
ゆえに機械学習に統計学は不要
2019/06/29(土) 13:38:25.90ID:c0pfCvxU0
>>19
必要だと思うなら持てばいいじゃん
人に聞いてどうすんの?
2019/06/29(土) 14:14:30.70ID:cbp3fco7d
deepnude
https://headlines.yahoo.co.jp/hl?a=20190629-00000002-jij_afp-int
23デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.232])
垢版 |
2019/06/29(土) 17:04:47.33ID:XAAAufdRM
>>20
機械学習じゃあ中途半端な数学は
意味ないからかなり勉強しないと。

統計学は基本からしっかり勉強すれば
数学は役に立つね

これからは機械学習でも
数学やってないと
淘汰されそうじゃね?
2019/06/29(土) 17:43:05.37ID:o35ZGU+9H
アノテーション作成がメインのお仕事なデータ・サイエンティスト系なのかも
25デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.232])
垢版 |
2019/06/29(土) 18:49:31.23ID:XAAAufdRM
アノテーション作成って
アルバイトがやるやつ?
まあ、それなら数学いらんわな
2019/06/29(土) 18:59:08.09ID:lQ+T+jM2a
アノテーションと言えば最近読んだこれ思い出した
https://www.itmedia.co.jp/news/articles/1906/27/news042.html
27デフォルトの名無しさん (ワッチョイ 8f82-kPuE [113.20.238.175])
垢版 |
2019/06/29(土) 20:50:27.68ID:D4vSRKio0
面白そうな本を見つけた。
買いでしょうか?かなり高いけどw

昆虫の脳をつくる ─君のパソコンに脳をつくってみよう─
https://www.asakura.co.jp/books/isbn/978-4-254-10277-2/
28デフォルトの名無しさん (アウアウエー Sa5f-a57L [111.239.45.71])
垢版 |
2019/06/29(土) 23:50:32.96ID:OKDl+MFsa
さっきのサヨナラのランニングホームラン
なんでエンタイトルツーベースにならなかったのか
2019/06/30(日) 02:05:07.60ID:wRe9znLCd
>>15
やってみます。
試行錯誤しながら精度上げていきます。
2019/06/30(日) 02:07:01.19ID:wRe9znLCd
>>15
10回と謂わずに100レース以上試してベストな方法でやってみます。
2019/06/30(日) 02:11:22.24ID:wRe9znLCd
>>23
競馬やってるが、極めてくるとプログラミングなんて知識よりも数学の知識が重要になってくる。
プログラミングなんて競馬予想をスムーズに効率的にやるツールに過ぎない。
最終的に数学の知識が必要になる。
極端な話、プログラミングなんてどうでもよくてその時代のベストなツールを組み込んでやれば良いが、ベースは統計学だから。
32デフォルトの名無しさん (ワッチョイ 7f9c-MQXj [61.125.210.189])
垢版 |
2019/06/30(日) 02:18:37.02ID:iTCTHGA20
機械学習ってプログラミングと言っていいのか
ライブラリ作ってる人は凄いと思うが
使う人はなんかマクロ言語使ってる感覚に近いんじゃね
だから言語は何でもいい
2019/06/30(日) 02:19:40.66ID:wRe9znLCd
>>14
恐らくそのようですね。
自分のコーディングの問題ではあると思いますが、統計解析ではRの方が実行速度が速いですね。
特にリアルタイムでオッズ表示してやるものとか。
自分のプログラム自体に問題あるかも(;´_ゝ`)。
2019/06/30(日) 02:37:04.55ID:wRe9znLCd
>>32
その通り。
中のライブラリ(数学の知識)が重要なんよ。
コーディングだけやるなら大したことないが。
35デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
垢版 |
2019/06/30(日) 08:21:41.61ID:yPGPa9/y0
>>30
ベストかどうかは想定内の選択肢の中で一番良い
という事でしかないと思う
想定外のアプローチでより良い結果を得られるかもしれないけどな
36デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
垢版 |
2019/06/30(日) 08:24:25.93ID:yPGPa9/y0
>>31
統計処理にミスがあったら損する事になるけどな
理論も実践も重要

理論的には実現できるけど実際にやろうとすると
見込み利益よりコストがかかって赤字とかのパターンもある
37デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
垢版 |
2019/06/30(日) 08:25:31.26ID:yPGPa9/y0
>>34
中のライブラリにないものは自分で作るしかない
38デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
垢版 |
2019/06/30(日) 08:27:38.23ID:yPGPa9/y0
>>33
結果を得るまでに必要な時間が
必要な時間内に収まるかどうかも問題になる事がある

自動運転とか結果を得るまでに5秒とかかかってたら役に立たない
39デフォルトの名無しさん (ササクッテロ Spe7-9deW [126.35.202.249])
垢版 |
2019/06/30(日) 09:10:52.59ID:TWP8jH/Lp
>>32
個人的には電気回路設計にかなり近いと感じている
新しい回路を設計する人はもはや殆どいない
トラ技等の雑誌を見てノウハウを学びつつ、実務では完成されたネットワークを使って変更点のある部分はPICやFPGAでなんとかする感じ
40デフォルトの名無しさん (オッペケ Sre7-PMiR [126.133.237.254])
垢版 |
2019/06/30(日) 11:21:11.95ID:jWRw+Abgr
回路パラメータは計算で決められるけど機械学習のハイパーパラメータはそうはいかないんだよな
41デフォルトの名無しさん (ワッチョイ a301-tMZp [126.46.109.25])
垢版 |
2019/07/01(月) 07:32:53.79ID:q9wsKKUp0
>>36
コストの方がかさむなら理論の時点で間違いだろw
2019/07/01(月) 12:11:54.39ID:fT9264MBa
理論が間違いというか、細かい人件費や手数料などどこまで計算に入れるかの問題だろう
あまり具体的に入れすぎても汎用性がなくなって使いにくくなるし、逆にシンプル化しすぎると現実とのズレが大きくなる
43デフォルトの名無しさん (ワッチョイ bf3e-hd/a [149.54.201.210])
垢版 |
2019/07/01(月) 22:39:51.18ID:YCDqSDsZ0
人間って視点を移動しながら視野の全体を認識してるけど
これをAIの画像認識にも応用すれば学習コストって大分少なくできるような気がするな
視点の中心に特徴量を集中させればいいだけだからかなり効率的だと思う
44デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.7])
垢版 |
2019/07/02(火) 01:31:56.34ID:8Bl6T7otM
だからさ、そんなこと誰でも考えるの

アイデアを形にして結果を出せなければ
ただの馬鹿でしかないから。
2019/07/02(火) 09:12:22.72ID:5vJ5v7kD0
どこに視点を合わせるの?馬鹿乙
46デフォルトの名無しさん (ワッチョイ 7f69-a57L [123.198.236.173])
垢版 |
2019/07/02(火) 09:15:54.85ID:NRRlQ2YU0
ランダムフォレスト分類の予測結果に「A」「B」「C」があった場合、
それ以外に確信度が低ければ「わからない」というラベルを
出力することができますか?
それかテスト入力データを与えたら、予測結果だけでなく
確信度的なものを数値で把握したい。
ランダムフォレストは多数決で判定結果を決めているということは
複数の木での意見の一致度とか意見が割れているとかが算出できるのでは
ないかと思います。
判定を間違えるくらいなら「わからない」と言ってくれたほうがいいので。
ランダムフォレスト回帰でも同様のことをしたいです。
pythonのscikit learn RandomForestでこのような機能があったら
教えて頂けるとありがたいです。
47デフォルトの名無しさん (ワッチョイ 537c-a57L [122.215.159.99])
垢版 |
2019/07/02(火) 09:56:07.67ID:dJ0Zw08U0
そうだな
AIにDNAやRNAと代謝を完全にエミュレーションさせればきっと完璧なはず
48デフォルトの名無しさん (アウアウクー MMe7-Dq7D [36.11.224.11])
垢版 |
2019/07/02(火) 11:33:05.05ID:nAZVCx2TM
>>46
できるし
積極的にそういうふうに実装すべき
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況