機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
Machine Learningを用いた論文一覧2018
https://shiropen.com/seamless/machine-learning/2018
2017年のディープラーニング論文100選
https://qiita.com/sakaiakira/items/f225b670bea6d851c7ea
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング23
https://mevius.5ch.net/test/read.cgi/tech/1551352040/
-
【統計分析】機械学習・データマイニング24
https://mevius.5ch.net/test/read.cgi/tech/1556674785/
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:----: EXT was configured
【統計分析】機械学習・データマイニング25
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん (ワッチョイ bbda-4T0R [114.182.230.4])
2019/06/27(木) 01:53:38.17ID:WayvZS+f02デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.242])
2019/06/27(木) 07:57:36.23ID:IbKMjjoUM 2ゲットー!
ズザザザ−!
(超満員の電車内なのでAA貼れない!)
ズザザザ−!
(超満員の電車内なのでAA貼れない!)
3デフォルトの名無しさん (ワッチョイ 6f66-QRBW [183.77.219.7])
2019/06/27(木) 08:43:37.55ID:2tGE38CS0 乙
4デフォルトの名無しさん (ワントンキン MM1f-hd/a [153.237.6.213])
2019/06/28(金) 08:25:13.31ID:cQT1BDVVM 意識のないAIなんてAIとは言わないよ
5デフォルトの名無しさん (アウアウカー Sa27-+WBJ [182.251.108.44])
2019/06/28(金) 10:05:12.77ID:6rqNzILja AI完全をクリアしてから考えればいい
意識云々いう奴は自己陶酔のオナ猿
意識云々いう奴は自己陶酔のオナ猿
6デフォルトの名無しさん (ワッチョイ 0301-SgbD [60.128.172.180])
2019/06/28(金) 16:26:34.11ID:BWz5SbEt0 多次元尺度構成法ってデータ間のユークリッド距離を見てユークリッド距離をほぼ再現できる別次元のデータ構成をつくりなおすってことで合ってる?
7デフォルトの名無しさん (ワッチョイ 537c-a57L [122.215.159.99])
2019/06/28(金) 16:29:44.88ID:L7hsi0hP0 距離を再現する必要はない
8デフォルトの名無しさん (スップ Sd9f-4T0R [1.66.102.252])
2019/06/28(金) 17:21:29.21ID:etZWCRnqd >>6
違う
違う
9デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.11])
2019/06/28(金) 18:57:47.38ID:HvoUsiIUM >>8
ウソつくな馬鹿たれが!
ウソつくな馬鹿たれが!
10デフォルトの名無しさん (アウアウクー MMe7-Dq7D [36.11.224.231])
2019/06/28(金) 19:10:52.92ID:7pRqTRJTM 😭💦💦
11デフォルトの名無しさん (ワッチョイ 0301-SgbD [60.128.172.180])
2019/06/28(金) 22:19:19.82ID:BWz5SbEt0 いわゆる最小二乗法っていうのは正規線形モデル(つまり誤差項が正規分布に従う仮定の線形モデル)でほかの確率分布を想定するために一般化線形モデル(正規分布以外の分布にも従うことを想定するモデル)があるっていうことでいいんでしょうか?だれかおしえてください
私の認識では正規分布に従う仮定ならばパラメータの推定は最小二乗法という簡単な行列計算で行うことができるけど他の分布の仮定であれば一般化線形モデルのもと最適化アルゴリズムを利用した最尤法を行わなければいけないという理解なんだけどあってるのかな?
私の認識では正規分布に従う仮定ならばパラメータの推定は最小二乗法という簡単な行列計算で行うことができるけど他の分布の仮定であれば一般化線形モデルのもと最適化アルゴリズムを利用した最尤法を行わなければいけないという理解なんだけどあってるのかな?
12デフォルトの名無しさん (ワッチョイ 0301-SgbD [60.128.172.180])
2019/06/28(金) 22:31:38.89ID:BWz5SbEt0 いわゆる最小二乗法っていうのは正規線形モデル(つまり誤差項が正規分布に従う仮定の線形モデル)でほかの確率分布を想定するために一般化線形モデル(正規分布以外の分布にも従うことを想定するモデル)があるっていうことでいいんでしょうか?だれかおしえてください
私の認識では正規分布に従う仮定ならばパラメータの推定は最小二乗法という簡単な行列計算で行うことができるけど他の分布の仮定であれば一般化線形モデルのもと最適化アルゴリズムを利用した最尤法を行わなければいけないという理解なんだけどあってるのかな?
私の認識では正規分布に従う仮定ならばパラメータの推定は最小二乗法という簡単な行列計算で行うことができるけど他の分布の仮定であれば一般化線形モデルのもと最適化アルゴリズムを利用した最尤法を行わなければいけないという理解なんだけどあってるのかな?
13デフォルトの名無しさん (スフッ Sd9f-BAii [49.104.39.160])
2019/06/29(土) 06:26:54.34ID:Fhjv9Srvd この前の目黒記念449,000円ごっつぁんです( ´∀`)/~~。
ラジオNIKKEI賞楽しみだな。
python一辺倒だったのを、統計解析部分をRに代えてやったら回収率が飛躍的にアップした。
Pythonはデータの取り出しに特化させるのが向いてるみたい。
ラジオNIKKEI賞楽しみだな。
python一辺倒だったのを、統計解析部分をRに代えてやったら回収率が飛躍的にアップした。
Pythonはデータの取り出しに特化させるのが向いてるみたい。
14デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
2019/06/29(土) 09:34:37.29ID:GHQZkqP1015デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
2019/06/29(土) 09:35:22.12ID:GHQZkqP1016デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.11])
2019/06/29(土) 09:50:41.55ID:iogbVdf2M17デフォルトの名無しさん (ワッチョイ 4352-QRBW [118.243.198.224])
2019/06/29(土) 10:01:58.78ID:c0pfCvxU018デフォルトの名無しさん (アウアウウー Sa47-CYTO [106.180.27.202])
2019/06/29(土) 10:10:42.33ID:zdFJmU1ka 統計処理はRの方が楽なことが多いが統計学を理解していれば言語で結果が変わるなど起こらないはず
19デフォルトの名無しさん (ササクッテロラ Spe7-SgbD [126.199.196.189])
2019/06/29(土) 10:56:23.50ID:8JoTMZH0p みんな統計検定準一級って持ってる?
機械学習やるなら持ってた方がいいかなって思ってるけどどう?
機械学習やるなら持ってた方がいいかなって思ってるけどどう?
20デフォルトの名無しさん (ワッチョイ 7fbd-5hf/ [157.192.88.71])
2019/06/29(土) 11:36:03.57ID:I2beZNSz0 機械学習に数学は不要
統計学に数学は必要
ゆえに機械学習に統計学は不要
統計学に数学は必要
ゆえに機械学習に統計学は不要
21デフォルトの名無しさん (ワッチョイ 4352-QRBW [118.243.198.224])
2019/06/29(土) 13:38:25.90ID:c0pfCvxU022デフォルトの名無しさん (スップ Sd9f-4T0R [1.66.101.114])
2019/06/29(土) 14:14:30.70ID:cbp3fco7d23デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.232])
2019/06/29(土) 17:04:47.33ID:XAAAufdRM24デフォルトの名無しさん (JP 0H07-KSxz [114.163.193.207])
2019/06/29(土) 17:43:05.37ID:o35ZGU+9H アノテーション作成がメインのお仕事なデータ・サイエンティスト系なのかも
25デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.232])
2019/06/29(土) 18:49:31.23ID:XAAAufdRM アノテーション作成って
アルバイトがやるやつ?
まあ、それなら数学いらんわな
アルバイトがやるやつ?
まあ、それなら数学いらんわな
26デフォルトの名無しさん (アウアウウー Sa47-CYTO [106.180.25.43])
2019/06/29(土) 18:59:08.09ID:lQ+T+jM2a アノテーションと言えば最近読んだこれ思い出した
https://www.itmedia.co.jp/news/articles/1906/27/news042.html
https://www.itmedia.co.jp/news/articles/1906/27/news042.html
27デフォルトの名無しさん (ワッチョイ 8f82-kPuE [113.20.238.175])
2019/06/29(土) 20:50:27.68ID:D4vSRKio0 面白そうな本を見つけた。
買いでしょうか?かなり高いけどw
昆虫の脳をつくる ─君のパソコンに脳をつくってみよう─
https://www.asakura.co.jp/books/isbn/978-4-254-10277-2/
買いでしょうか?かなり高いけどw
昆虫の脳をつくる ─君のパソコンに脳をつくってみよう─
https://www.asakura.co.jp/books/isbn/978-4-254-10277-2/
28デフォルトの名無しさん (アウアウエー Sa5f-a57L [111.239.45.71])
2019/06/29(土) 23:50:32.96ID:OKDl+MFsa さっきのサヨナラのランニングホームラン
なんでエンタイトルツーベースにならなかったのか
なんでエンタイトルツーベースにならなかったのか
29デフォルトの名無しさん (スフッ Sd9f-BAii [49.104.39.160])
2019/06/30(日) 02:05:07.60ID:wRe9znLCd30デフォルトの名無しさん (スフッ Sd9f-BAii [49.104.39.160])
2019/06/30(日) 02:07:01.19ID:wRe9znLCd >>15
10回と謂わずに100レース以上試してベストな方法でやってみます。
10回と謂わずに100レース以上試してベストな方法でやってみます。
31デフォルトの名無しさん (スフッ Sd9f-BAii [49.104.39.160])
2019/06/30(日) 02:11:22.24ID:wRe9znLCd >>23
競馬やってるが、極めてくるとプログラミングなんて知識よりも数学の知識が重要になってくる。
プログラミングなんて競馬予想をスムーズに効率的にやるツールに過ぎない。
最終的に数学の知識が必要になる。
極端な話、プログラミングなんてどうでもよくてその時代のベストなツールを組み込んでやれば良いが、ベースは統計学だから。
競馬やってるが、極めてくるとプログラミングなんて知識よりも数学の知識が重要になってくる。
プログラミングなんて競馬予想をスムーズに効率的にやるツールに過ぎない。
最終的に数学の知識が必要になる。
極端な話、プログラミングなんてどうでもよくてその時代のベストなツールを組み込んでやれば良いが、ベースは統計学だから。
32デフォルトの名無しさん (ワッチョイ 7f9c-MQXj [61.125.210.189])
2019/06/30(日) 02:18:37.02ID:iTCTHGA20 機械学習ってプログラミングと言っていいのか
ライブラリ作ってる人は凄いと思うが
使う人はなんかマクロ言語使ってる感覚に近いんじゃね
だから言語は何でもいい
ライブラリ作ってる人は凄いと思うが
使う人はなんかマクロ言語使ってる感覚に近いんじゃね
だから言語は何でもいい
33デフォルトの名無しさん (スフッ Sd9f-BAii [49.104.39.160])
2019/06/30(日) 02:19:40.66ID:wRe9znLCd >>14
恐らくそのようですね。
自分のコーディングの問題ではあると思いますが、統計解析ではRの方が実行速度が速いですね。
特にリアルタイムでオッズ表示してやるものとか。
自分のプログラム自体に問題あるかも(;´_ゝ`)。
恐らくそのようですね。
自分のコーディングの問題ではあると思いますが、統計解析ではRの方が実行速度が速いですね。
特にリアルタイムでオッズ表示してやるものとか。
自分のプログラム自体に問題あるかも(;´_ゝ`)。
34デフォルトの名無しさん (スフッ Sd9f-BAii [49.104.39.160])
2019/06/30(日) 02:37:04.55ID:wRe9znLCd35デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
2019/06/30(日) 08:21:41.61ID:yPGPa9/y036デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
2019/06/30(日) 08:24:25.93ID:yPGPa9/y037デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
2019/06/30(日) 08:25:31.26ID:yPGPa9/y0 >>34
中のライブラリにないものは自分で作るしかない
中のライブラリにないものは自分で作るしかない
38デフォルトの名無しさん (ワッチョイ cf10-0rME [153.131.102.129])
2019/06/30(日) 08:27:38.23ID:yPGPa9/y039デフォルトの名無しさん (ササクッテロ Spe7-9deW [126.35.202.249])
2019/06/30(日) 09:10:52.59ID:TWP8jH/Lp >>32
個人的には電気回路設計にかなり近いと感じている
新しい回路を設計する人はもはや殆どいない
トラ技等の雑誌を見てノウハウを学びつつ、実務では完成されたネットワークを使って変更点のある部分はPICやFPGAでなんとかする感じ
個人的には電気回路設計にかなり近いと感じている
新しい回路を設計する人はもはや殆どいない
トラ技等の雑誌を見てノウハウを学びつつ、実務では完成されたネットワークを使って変更点のある部分はPICやFPGAでなんとかする感じ
40デフォルトの名無しさん (オッペケ Sre7-PMiR [126.133.237.254])
2019/06/30(日) 11:21:11.95ID:jWRw+Abgr 回路パラメータは計算で決められるけど機械学習のハイパーパラメータはそうはいかないんだよな
41デフォルトの名無しさん (ワッチョイ a301-tMZp [126.46.109.25])
2019/07/01(月) 07:32:53.79ID:q9wsKKUp0 >>36
コストの方がかさむなら理論の時点で間違いだろw
コストの方がかさむなら理論の時点で間違いだろw
42デフォルトの名無しさん (アウアウウー Sa47-CYTO [106.180.21.39])
2019/07/01(月) 12:11:54.39ID:fT9264MBa 理論が間違いというか、細かい人件費や手数料などどこまで計算に入れるかの問題だろう
あまり具体的に入れすぎても汎用性がなくなって使いにくくなるし、逆にシンプル化しすぎると現実とのズレが大きくなる
あまり具体的に入れすぎても汎用性がなくなって使いにくくなるし、逆にシンプル化しすぎると現実とのズレが大きくなる
43デフォルトの名無しさん (ワッチョイ bf3e-hd/a [149.54.201.210])
2019/07/01(月) 22:39:51.18ID:YCDqSDsZ0 人間って視点を移動しながら視野の全体を認識してるけど
これをAIの画像認識にも応用すれば学習コストって大分少なくできるような気がするな
視点の中心に特徴量を集中させればいいだけだからかなり効率的だと思う
これをAIの画像認識にも応用すれば学習コストって大分少なくできるような気がするな
視点の中心に特徴量を集中させればいいだけだからかなり効率的だと思う
44デフォルトの名無しさん (トンモー MM07-L5e7 [210.142.95.7])
2019/07/02(火) 01:31:56.34ID:8Bl6T7otM だからさ、そんなこと誰でも考えるの
アイデアを形にして結果を出せなければ
ただの馬鹿でしかないから。
アイデアを形にして結果を出せなければ
ただの馬鹿でしかないから。
45デフォルトの名無しさん (ワッチョイ 6fda-Eaty [223.218.106.241])
2019/07/02(火) 09:12:22.72ID:5vJ5v7kD0 どこに視点を合わせるの?馬鹿乙
46デフォルトの名無しさん (ワッチョイ 7f69-a57L [123.198.236.173])
2019/07/02(火) 09:15:54.85ID:NRRlQ2YU0 ランダムフォレスト分類の予測結果に「A」「B」「C」があった場合、
それ以外に確信度が低ければ「わからない」というラベルを
出力することができますか?
それかテスト入力データを与えたら、予測結果だけでなく
確信度的なものを数値で把握したい。
ランダムフォレストは多数決で判定結果を決めているということは
複数の木での意見の一致度とか意見が割れているとかが算出できるのでは
ないかと思います。
判定を間違えるくらいなら「わからない」と言ってくれたほうがいいので。
ランダムフォレスト回帰でも同様のことをしたいです。
pythonのscikit learn RandomForestでこのような機能があったら
教えて頂けるとありがたいです。
それ以外に確信度が低ければ「わからない」というラベルを
出力することができますか?
それかテスト入力データを与えたら、予測結果だけでなく
確信度的なものを数値で把握したい。
ランダムフォレストは多数決で判定結果を決めているということは
複数の木での意見の一致度とか意見が割れているとかが算出できるのでは
ないかと思います。
判定を間違えるくらいなら「わからない」と言ってくれたほうがいいので。
ランダムフォレスト回帰でも同様のことをしたいです。
pythonのscikit learn RandomForestでこのような機能があったら
教えて頂けるとありがたいです。
■ このスレッドは過去ログ倉庫に格納されています
