【統計分析】機械学習・データマイニング16 [無断転載禁止]©2ch.net

■ このスレッドは過去ログ倉庫に格納されています
2017/06/27(火) 01:09:12.61ID:S1DxdjT9
機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング15
http://mevius.2ch.net/test/read.cgi/tech/1492344216/
2017/07/08(土) 12:45:13.64ID:QkNdjw+7
無知そうなのがなんか言ってる。MAP推定反対派はもっと違うこと言う。
2017/07/08(土) 12:51:47.73ID:ttuBzuC+
博士号持っているんだが>>271は正しいよ
2017/07/08(土) 12:53:28.89ID:ttuBzuC+
正確にいうと機械学習ではなくて統計学(専門はMCMC)だが
MCMCが普及したという状況からみてもMAP推定は過去の遺物
2017/07/08(土) 13:38:38.47ID:QkNdjw+7
根拠教えてくれると助かる
2017/07/08(土) 13:39:48.75ID:1cpEb7H4
自分も正直詳しく聞いてみたい
2017/07/08(土) 14:26:24.34ID:cqaW2ET5
どうしてだろう
278デフォルトの名無しさん
垢版 |
2017/07/08(土) 14:53:57.02ID:bx7kaphQ
ビショップの日本語訳の本ですが、ネットで注文して家に届きました。

下巻は表面がツルツルしているのですが、上巻は普通の紙みたいな感じです。

上下巻ともツルツルのが良かったのですが。。。

本自体も少しダメージがあるのが送られてきました。

もしかして、返品されたB級品を安く仕入れて売っているのでしょうか?
2017/07/08(土) 14:55:33.59ID:k7wFvHKJ
>>273
自分のレスに正しいってコメントするのって、バカなの?それとも自演失敗?
280デフォルトの名無しさん
垢版 |
2017/07/08(土) 15:13:10.57ID:Znuc+49x
線形なのか線型なのか、はっきりせい。
2017/07/08(土) 15:33:59.37ID:k7wFvHKJ
>>280
linear algebra の単なる訳語だからどっちでもいいんだよ、どうせ欧米の後追いなんだから
2017/07/08(土) 15:49:35.62ID:QkNdjw+7
>>279
表現的に自演
2017/07/08(土) 16:02:33.95ID:VM8GoqOU
日常的に自演してるんだなw そりゃワッチョイ提言があるたびに強硬に反対するわなw
2017/07/08(土) 16:06:04.61ID:trRPfY+9
自演博士 www
2017/07/08(土) 16:10:35.93ID:trRPfY+9
>>278
本は粗雑に扱われがちだから、そういうことはたまにある。通販の弱点。
表面の違いは版の違いなだけでしょう
2017/07/08(土) 16:11:33.54ID:AC4an/FF
>>278
お前は読まずに飾るだけなのか
だったら表紙だけコピーして弁当箱にかぶせて本体は安く売り払っちまえ
2017/07/08(土) 19:29:34.43ID:lfRb3a0C
次は日本語訳が悪いとか言い出しそう
2017/07/08(土) 19:38:29.05ID:ICTsGxtb
粗探しはじめんだろ
2017/07/08(土) 20:29:59.66ID:ylggERJO
>>282
お前はその自演博士に教えを乞うているのかw

>>273が自演っぽく見えるのは言葉のあやみたいなもの自演ではない。
どうせmap推定がなんでダメなのか述べても難癖付けられるだけだから
いわないでおこうと思ったが、仕方ないから言っておく

まず、ベイズ統計学的には事後分布を出すことこそが最大の目的であって
事後平均・中央値・最頻値などは副産物でしかない(それ自体は事後分布の姿を
把握するためのもの)
ただし、事後平均や中央値に関しては統計的決定論の観点から正当化可能
それに対して事後分布のモードは統計的決定論の観点から正当化できない

実用的にもMCMCが普及した今MAP推定はむしろ不便
プログラミングできない学生に教育としてベイズ的な考え方(≠ベイズ統計)
に触れてもらうくらいの価値しかない

レス付けられても付け返さないんでよろしく
2017/07/08(土) 21:09:17.54ID:WTG+UFVb
>>289
自演がバレて恥ずかしい、まで読んだ
2017/07/08(土) 21:10:07.27ID:ye4ztRvo
で、どこの書籍や論文に書いてあったかの根拠を示せっていってるんだろ。
自演博士は日本語も不自由か。
2017/07/08(土) 21:15:14.93ID:AbVAaa3F
はい次回から問答無用でワッチョイ決定な
2017/07/08(土) 21:21:16.45ID:yyvtXfzA
数学やり直してるけどボリューム見て絶望。
浅く広くやるか、、深くじっくりやるか、、
2017/07/08(土) 21:27:11.29ID:trRPfY+9
>>289
自演博士さん、恥の上塗りですよw

>>292
まぁワッチョイ入れるなら従う
2017/07/08(土) 21:41:09.83ID:96snkMHE
このスレの人達は、みんなこの分野の専門家なの?
「ニューラルネットワーク自作入門」とかいう本読んで
素人でも仕組みが理解できるし作れるぜ、ウェーイッ!っていうレベルなんだけど
そんな知識あるなら、いま流行りの分野だし、分かり易い本でも書けば随分儲かると思うよ
2017/07/08(土) 21:44:32.05ID:1cpEb7H4
素人でも仕組みが理解できるし作れる

なんて信じちゃうのは素人未満の何かだけだし
そんなのを釣って儲ける本書くのは恥
2017/07/08(土) 21:53:21.83ID:LFCUi1Tz
まだ嘘に近いこと書くやつの本が生きてる。淘汰されると信じてる。
2017/07/08(土) 21:53:30.22ID:k7wFvHKJ
>>289
自演博士は必死杉。ワッチョイ入ったらもう自演博士号は役立たないぞ

>>295
専門書は売れてもたかがしれてるし、
一般向けのSFもどきの本を書いて売るには著者の知名度がいる。
極端な話し、ホリエモンの名前なら売れるだろう。
2017/07/08(土) 22:01:30.27ID:96snkMHE
まー、プロから見たら実用性も何も無いものかもしれないけど
実際に自分で作ってお遊び程度でもきちんと動作するものが作れるのは嬉しいものだよ
2017/07/08(土) 22:04:49.72ID:LFCUi1Tz
普及率の高いラップトップでもできるから、素人の参入障壁が低いだけで、素人でもできるものではない。
専門書にしかなり得ないよなあ
2017/07/08(土) 22:09:24.45ID:1cpEb7H4
ぶっちゃけ>>271-274の流れは確かに普通の自己レス補足にしか見えんが
まあなんだ、楽しそうだな
2017/07/08(土) 22:38:57.08ID:y6uRndyS
人工脳
2017/07/08(土) 22:43:10.99ID:OzQvZ12j
Deep Learningに必要なのは専門知識というよりは教育者の勘に近いものになってきている。
こういう構造にしたらこういう特徴を学んでくれるんじゃないか、みたいな。
ニューラルネット自体はほとんどライブラリ化しちゃってるしね。
分析会社の友人が深層学習は粘土細工だって言ってたけど、まさにそんな感じ。
2017/07/08(土) 22:51:02.89ID:i0MmOriA
アホコン
2017/07/09(日) 00:45:01.92ID:2lChk8be
でもしばらくしたら粘土細工に仕事ぶんどられて
粘土細工の顔色見て生きていかなくちゃならなくなるんでしょ?
306デフォルトの名無しさん
垢版 |
2017/07/09(日) 00:48:51.21ID:Jr258EKy
機械学習のアルゴリズムより、何に使ったらいいのかでつまずいてる感
2017/07/09(日) 00:51:10.13ID:SDks0/xe
5割がそれ
残りの4割はデータ収集で詰む
2017/07/09(日) 02:56:34.94ID:AMxwJE6X
プログラミングで言うと言語作ってる側と言語使ってアプリ作ってる側を
積極的にごっちゃにして語ってる感があるのがこのスレ
2017/07/09(日) 03:35:12.54ID:sIgN2xg1
その混沌はこのスレの問題ではなくて AI 一般に見られる現象。
積極的に文系が騙る珍しい分野
2017/07/09(日) 04:45:31.60ID:y0wTv3iH
>>293
どこからやり直してる?高校?
2017/07/09(日) 14:18:44.21ID:lMgmJO68
数学だけは深くじっくり自分が分かるまでやるしかないよね
受験数学は時間のなさからそういうことやらせてくれないけど
2017/07/09(日) 14:53:34.33ID:TzMEy04X
大学の数学は昔より勉強しやすい環境が整ってるよ
書籍が充実してる
図書館探せば参考書も結構あったりする

昔(30年ぐらい前)は本当に教科書教科書してて頭のいい人しかできませんみたいな感じだった
2017/07/09(日) 14:55:18.51ID:Jwpk0hKO
マセマか
314デフォルトの名無しさん
垢版 |
2017/07/09(日) 14:58:56.46ID:Jr258EKy
理系大学生に最も売れている本
マセマ
315デフォルトの名無しさん
垢版 |
2017/07/09(日) 14:59:46.64ID:Jr258EKy
マセマは指定教科書がわからない場合にだけ手を出す本
2017/07/09(日) 16:41:27.12ID:9YyoGcoc
マセマなんて読むやつは2通り。
いい成績取りたいだけの効率屋、と正真正銘のできないやつ
317デフォルトの名無しさん
垢版 |
2017/07/09(日) 16:47:09.85ID:Jr258EKy
マセマは最低限単位を取るための本で良い成績なんてむりむり
2017/07/09(日) 23:23:41.32ID:sLDxf/Qp
人工脳
2017/07/10(月) 00:21:13.43ID:4WvgKTxL
人工無脳かわいいよ
2017/07/10(月) 00:24:50.34ID:cU2Z4oJp
人口無能w
2017/07/10(月) 10:33:42.30ID:IZCTr2Xd
人口脳
322デフォルトの名無しさん
垢版 |
2017/07/10(月) 16:30:41.17ID:hbYLDPUX
>>237
それはただの次元因子分析
大事なのはdiv/gradのほうだろ

>>261
それな
2017/07/10(月) 17:28:17.00ID:OAwCY67i
統計だろ
2017/07/11(火) 10:34:31.13ID:dHCGYXLu
関係文章読んでてビッグデータがビッチデータに見えた
どうかしている
2017/07/11(火) 11:56:50.24ID:2jnsc+l9
それ以前に日本語の文章読んでる時点で終わってるぞ
326デフォルトの名無しさん
垢版 |
2017/07/11(火) 12:03:56.99ID:7Wx6VZ83
Big Data が Bitch Data に見えたという可能性はないでしょうか?
2017/07/11(火) 13:26:08.44ID:2jnsc+l9
もしそうなら視覚障害あるからどっちにしても終わりやね
2017/07/11(火) 13:36:13.41ID:Mee20pSk
なにそんなにかっかしてんだ禿げるぞ
2017/07/11(火) 13:39:02.81ID:onaMF8hB
いや禿げてるからだろう
2017/07/11(火) 15:20:47.04ID:773fQNOS
人工知能もハゲには無力だから仕方ない
331デフォルトの名無しさん
垢版 |
2017/07/11(火) 16:12:37.80ID:DycQuLWa
ドフサですが?
http://www-formal.stanford.edu/jmc/jmccolor.jpg
332デフォルトの名無しさん
垢版 |
2017/07/11(火) 16:13:55.08ID:ueMb8Qbs
>>303
経済学のマクロ計量モデルに似てるな。誤差逆伝播法はないけど。
333デフォルトの名無しさん
垢版 |
2017/07/11(火) 18:54:10.77ID:dSS1j36W
[][Tebla][]

}

000-"Yob*RtStrike"[%Kil\]MO,fla>%$9999VLTS

001-GYORLith"0\R"/"ESUBA"%$%

HADO-"EM","L","O","NU"###END
2017/07/11(火) 19:26:26.83ID:h5MEx8hD
人工脳
2017/07/11(火) 19:47:49.62ID:/lbrjaDW
Radeon + C++AMPでDNNやろうとしてんだけど、前提となる行列計算がなかなか早くなんないな
メーカー公表値通りなら6TFlopsでなきゃならないところが0.8TFlopsしか出ず(大きな最適化はしていない)、こっから最適化してもせいぜい2倍が限度の気がしてしまう
GeForceを買ってもやっぱ素人が書いたコードじゃ早くなんないのかな?
336デフォルトの名無しさん
垢版 |
2017/07/11(火) 20:05:10.07ID:ueMb8Qbs
C++用のニューラルネットワークのツールキットprimitiv(仮)を作りました。
C++ネイティブでなるべく強い外部依存を排し、使いやすいインターフェイスを目指しました。
CUDA使用時は結構速いです。
https://github.com/odashi/primitiv/tree/v0.1.0-alpha
337デフォルトの名無しさん
垢版 |
2017/07/11(火) 20:15:10.34ID:/lbrjaDW
>>336
参考のために教えてほしいのですが、CUDAの場合このコードでメーカー公表値の何割ぐらいの演算性能がでるものなんですか?
2017/07/11(火) 20:33:26.04ID:E4ZfNF2K
mnist実行したら結果は0.9217だった
2017/07/11(火) 20:38:26.92ID:2jnsc+l9
何そのゴミ
云10年前の精度レヴェル
どんな糞モデル作ったらそうなるんだよ
340デフォルトの名無しさん
垢版 |
2017/07/11(火) 20:48:14.98ID:/lbrjaDW
畳み込み層とプーリング層がないみたいなんでそんなもんだろう
341デフォルトの名無しさん
垢版 |
2017/07/11(火) 20:51:25.72ID:X4PqR4xl
>>340
それなら20年位前からあるんじゃね
342デフォルトの名無しさん
垢版 |
2017/07/11(火) 20:54:03.43ID:/lbrjaDW
おまえらもしかしてコード読めないの?
2017/07/11(火) 21:06:09.07ID:Sq+bXrW4
コード読めないんかよ。。
344デフォルトの名無しさん
垢版 |
2017/07/11(火) 21:50:59.81ID:X4PqR4xl
>>342
コード読む気がないんじゃね
2017/07/11(火) 21:54:48.73ID:2jnsc+l9
CNNじゃないとか関係ない
ANNでも普通に作れば92%とかいう糞スコア叩き出さないから
2017/07/11(火) 22:01:15.68ID:6BxrgLns
ANN?
2017/07/11(火) 22:28:52.10ID:QhZ/ySPc
あっNLP若手のかいの
2017/07/11(火) 22:40:48.81ID:enBhfa10
NLP岩手
2017/07/11(火) 22:47:44.11ID:w+KLpVni
>>345
MLP ならそんなもんだよ、ど素人かよw
2017/07/12(水) 00:03:21.01ID:TXJK2TKs
いつまでもMNISTの話しなのね
若手の会でも全能アーキテクチャのとこは香ばしい。
2017/07/12(水) 00:19:29.01ID:MTSUQ+w2
>>349
お前のANNゴミすぎだろ
チュートリアルほとんどそのまま動かしてそう
2017/07/12(水) 00:28:45.68ID:ODoVbNWc
>>351
あれ?話しがずれてるよね?
「普通に作れば92%とかいう糞スコア叩き出さないから」
wwwww
2017/07/12(水) 00:32:36.35ID:ODoVbNWc
>>350
例えば MASK R-CNN の話ししてもあんたら分からんだろw
2017/07/12(水) 00:36:58.02ID:d89QBJh3
>>351
MLP でどのくらい出るの?単なる興味として
2017/07/12(水) 01:08:01.80ID:MTSUQ+w2
>>352
よもや普通というのをチュートリアル通りと思ってるなんてことはないよなあ
2017/07/12(水) 01:21:38.00ID:LlsQ875g
>>355
さすがに無理あるだろw
それはともかく、MLPのスコアは?
2017/07/12(水) 04:41:54.79ID:XhGoC/Ii
>>355
ヽ(・∀・)ノ 池沼かよ、チュートリアルだって普通の範疇に入るに決まってるだろ
358デフォルトの名無しさん
垢版 |
2017/07/12(水) 07:10:01.47ID:2w1IGKpf
>>345
確率的勾配効果法だと結果も確率的になるんじゃね
2017/07/12(水) 08:50:58.38ID:TXJK2TKs
>>353
すればいいじゃん。単語だけ並べてドヤ顔すんなよ。
2017/07/12(水) 09:12:14.32ID:MTSUQ+w2
レベルが低すぎる、話にならないな
チュートリアルなんてhello worldレベルのものを普通水準と思ってるとか
薄々感づいてはいたがこのスレのレベルの低さがよもやこれほどとは
2017/07/12(水) 10:25:55.78ID:SQxf6H8E
マウント合戦開始
2017/07/12(水) 11:10:21.58ID:tUHI7hYy
ハゲは黙ってろよ
2017/07/12(水) 11:10:36.18ID:yVrzytK3
チュートリアル動かしたぐらいでドヤっちゃうの流石によろしくない。
2017/07/12(水) 18:12:33.93ID:ts7i1ALk
ひたすら罵り合って見下してバカにし合うだけで、2chでも有数の不毛なスレだな
2017/07/12(水) 18:19:57.26ID:sNyzU/qO
むしろほぼ全部それ
2017/07/12(水) 18:21:46.98ID:ts7i1ALk
ここは特に酷いぞ
人格破綻かな
367デフォルトの名無しさん
垢版 |
2017/07/12(水) 19:43:30.08ID:UdEMFyy2
見ないうちに初学者向けの本が大量に出てるみたいだけど、確率的勾配降下についてきちんと説明した本出た?
2017/07/12(水) 20:44:03.87ID:oouB4tax
自分で書け
2017/07/12(水) 21:29:20.40ID:xpbg+QGx
GPUはどれくらいの積めば合格点?
2017/07/12(水) 21:29:38.12ID:RfH2l9xm
PRMLのアルゴリズムをPython(ほぼNumpyだけ)で実装
https://goo.gl/AkLRJb
2017/07/12(水) 22:28:07.81ID:+/fBJfIA
真理の探究。つまり、何が正しい筋道で、どこに焦点を合わせればいいかを模索する。これが人間にどういう恩恵をもたらすかというと、人生における試練、トラブルといった、あらゆる問題ごとのスムーズな解決を促すのだ。

例えば、『人は必ず死ぬ』という真理。この真理がわかっていれば、こういう言葉と真剣に向き合うだろう。

『人生は一冊の書物によく似ている。 愚かな者はそれをパラパラとめくっているが、 賢い者はそれを念入りに読む。 なぜなら彼は、ただ一度しかそれを読めないことを、知っているからだ。』byジャン・パウル

そういうことだ。つまり真理の探究ができない人は、ここでいう『愚かな者』。毎日を場当たり的に生き、浅はかで刹那的、建設的ではなく、射幸的な人生を好むようになる。

建設というのは読んで字のごとく、毎日毎日、積み上げていくものだ。そういう人は、射幸的のように、幸せを矢で射って当たれば儲けと考える、そういう生き方をする人間とは比べ物にならない結果を出すだろう。

それがわかるのが、記者とイチローのこのやりとりだ。

記者『イチロー選手は、なぜ同じ毎日の繰り返しで、成功できたんですか?』

イチロー『確かな一歩の積み重ねでしか、遠くへは行けない。』

真理とは、自分の人生を最高に応援する、勝利の女神のようなものだ。彼女を怒らせたら怖いが、味方にすればとても心強い。

どちらを選択するかは自分次第だ。
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況