【統計分析】機械学習・データマイニング16 [無断転載禁止]©2ch.net

■ このスレッドは過去ログ倉庫に格納されています
2017/06/27(火) 01:09:12.61ID:S1DxdjT9
機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング15
http://mevius.2ch.net/test/read.cgi/tech/1492344216/
2017/07/07(金) 01:06:11.82ID:cFVk1Jik
Aが行列でxとbがベクトルとしたときAx = b の
xを求めたい。

でも現実的にはxの解がないことが多い。だから
誤差e = b - Ax が最小のときがxの最適解になる。

Axは行列Aの列ベクトルの線形結合で作られる
「平面」であり、bはその平面から斜めに出ている
ベクトル。

つまりベクトルbから平面への射影したときの
距離eを最小にするxが最適解になる。

解析の最小二乗法を線形代数的にやっているだけ
だとは思うがベクトルの方がイメージしやすい。

数学科じゃないので間違ってたらすまん。
238デフォルトの名無しさん
垢版 |
2017/07/07(金) 02:02:12.61ID:G8bk1r+1
>誤差e = b - Ax が最小のときがxの最適解になる。

たった2行目のこの時点で大間違えじゃあ、長い長い残りを読んでも無駄だろう
2017/07/07(金) 02:39:35.38ID:lPKIQXky
>>237
びっくりするくらい合ってない
240デフォルトの名無しさん
垢版 |
2017/07/07(金) 02:45:50.04ID:Z/NuFZwX
最小自乗法は線形代数で表現できるお
241デフォルトの名無しさん
垢版 |
2017/07/07(金) 06:54:20.26ID:7ITbdfe7
>>226
高卒とは限らんぞ、東大でも大学で数学をやらん奴は線形代数を一生やらずじまいになる。
242デフォルトの名無しさん
垢版 |
2017/07/07(金) 07:00:49.89ID:O0fDrQbK
>>238
間違ってなくね?
どこのことを言ってるの?
243デフォルトの名無しさん
垢版 |
2017/07/07(金) 07:34:21.26ID:y8l3MOci
Ax = bの時点でこの解は、行列のみならず、bにも依存してるわけだが。
bは任意でいいのか? そしたらゼロでもイチでもいいのか?
それとも(A、 b)が最初に与えられた行列だとするのか?
そこからの説明もとむ。
2017/07/07(金) 08:08:59.07ID:ItiCI/p4
>>243
えっ?
連立方程式を行列で表現しているだけだが
2017/07/07(金) 08:54:40.10ID:OV8bpvVM
>>234
それデータあるの?
246デフォルトの名無しさん
垢版 |
2017/07/07(金) 09:09:48.74ID:y8l3MOci
>>244
その連立方程式と、この関係性を説明してくれ。


> 220 名前: [.] 投稿日:2017/07/06(木) 21:11:37.50 ID:1+qLHeAc
> 行列を単なる計算の手段と思ったらダメだろ
> 行列はベクトル空間を表し、そのベクトル空間に対する距離(射影)が最短になるベクトルを
> 見つけるのが機械学習の本質、とイメージするといろいろと応用が効くと思う。
2017/07/07(金) 09:11:41.59ID:iowhp0vH
>>242
へーん、なら誤差が負の無限大になるような解でも探してろよw
2017/07/07(金) 10:09:18.91ID:stRk6581
>>220
自己流で同じような考え方してたけどそう間違っちゃいないんだな
2017/07/07(金) 10:38:16.11ID:Hkhwo5qO
線型識別の話をしたいのだろう、たぶん、きっとそうだよね
2017/07/07(金) 10:41:39.69ID:fpfCGWE6
>>249
最近、線型の意味を覚えたばかりなのかい?
2017/07/07(金) 10:51:19.09ID:Hkhwo5qO
>>250
おじちゃん、詳しく教えて
2017/07/07(金) 10:53:30.54ID:vo2VT5sF
>>251
お兄さんと言えフッサフサやぞ
2017/07/07(金) 11:16:33.34ID:Zm7wv7mh
学部レベルの数学がよく分かってない状態で
深層学習をやっちゃだめなんですね
2017/07/07(金) 11:21:13.99ID:Ju6cSvwH
やってよい。深層学習に数学は必要ない。
2017/07/07(金) 11:59:11.30ID:Hkhwo5qO
>>252
髪の型は19分けなわけですね
256デフォルトの名無しさん
垢版 |
2017/07/07(金) 12:12:57.65ID:6/1c2NBw
スレ違いでしたらすみません。
因子分析についてどなたかご存知でしたらお答えください。
現在「5 因子性格検査短縮版 (FFPQ–50) 」https://www.jstage.jst.go.jp/article/personality/13/2/13_2_231/_pdf
を用いて個人の性格を分析しようとしているのですが、どのような計算をすればよいのかわかりません。
因子得点の計算法を書籍で確認したところ標準化した粗点に因子得点係数をかければ計算できるようです。
しかし論文には因子負荷量表のみ紹介されており因子得点係数や相関行列を求める手段が内容に思えます。
ご教授いただけますでしょうか。よろしくお願い致します。
2017/07/07(金) 12:16:37.49ID:u5D8E4qs
>>253
そもそも深層学習の発展は専門外が貢献
学問てのは後付けにすぎない
2017/07/07(金) 12:17:21.51ID:zYftPXbI
>>256
宣伝乙
259デフォルトの名無しさん
垢版 |
2017/07/07(金) 13:40:06.21ID:CR+cZhA6
>>219
Amazonのリコメンド機能とかGoogleのもしかしてとか
すでにあるんじゃね

重要と考えられるものを推薦したり提案したりしてる
260デフォルトの名無しさん
垢版 |
2017/07/07(金) 13:54:30.09ID:CR+cZhA6
>>246
平面上にbが存在すれば連立方程式に解がある状態かな
平面上にbが存在しない場合は平面上のbの距離が点
つまりbから平面へ射影した点が近似解になると解釈出来る
261デフォルトの名無しさん
垢版 |
2017/07/07(金) 14:17:58.47ID:Z/NuFZwX
線形代数と勾配法さえわかってればいいお
2017/07/07(金) 22:26:10.16ID:nm77RtOW
行列スレw
2017/07/08(土) 00:28:04.87ID:qPwKVr1Z
>>257
同意。
ついでに述べると深層学習専門の講義とかマジやめて欲しい。
特定の方法しか知らんやつが増える。
2017/07/08(土) 00:42:20.41ID:uwEv9WbD
PRMLを読んではいけないらしい
2017/07/08(土) 00:59:28.39ID:LFCUi1Tz
ベイジアンの書籍だもの。偏りがないとは言えない。
読んではいけない、は大学の先生の「気を引くため」の戯言じゃないの?
2017/07/08(土) 03:12:27.67ID:K8L717tK
米国や中国に遅れすぎたから今さらやってもなぁ
2017/07/08(土) 03:32:54.46ID:Q1yx0MVS
先端技術は中国にまかせて、日本は重箱の隅をつつくという切り分けはできてるだろ
268デフォルトの名無しさん
垢版 |
2017/07/08(土) 03:54:23.67ID:oPAejcOE
map推定とベイズ推定の違いがよくわかりません
P(θ|D) = (P(D|θ)P(θ))/P(D)
でP(D|θ)P(θ)だけ考えてこれを最大化するのがmap推定で、
(P(D|θ)P(θ))/P(D)を全部計算してθの信用度まで出すのがベイズ推定だとしたらパラメータθに一切関わらないP(D)の値は計算する必要があるのでしょうか?
P(D|θ)P(θ)だけ計算して合計が1になるようスケーリングするだけではダメなんですか?
2017/07/08(土) 07:38:42.21ID:6vW4Gp5k
>>253
ダメに決まってるだろバカなのか?
少なくとも数学か物理で修士持ってるやつ以外ダメ
工学部の博士だけ大学によっては良い
2017/07/08(土) 09:00:11.43ID:sK/mLZZH
>>268
PRML読め
2017/07/08(土) 11:34:40.65ID:ttuBzuC+
MAP推定なんて統計学的に何の根拠もないゴミだから使わない方がいい
2017/07/08(土) 12:45:13.64ID:QkNdjw+7
無知そうなのがなんか言ってる。MAP推定反対派はもっと違うこと言う。
2017/07/08(土) 12:51:47.73ID:ttuBzuC+
博士号持っているんだが>>271は正しいよ
2017/07/08(土) 12:53:28.89ID:ttuBzuC+
正確にいうと機械学習ではなくて統計学(専門はMCMC)だが
MCMCが普及したという状況からみてもMAP推定は過去の遺物
2017/07/08(土) 13:38:38.47ID:QkNdjw+7
根拠教えてくれると助かる
2017/07/08(土) 13:39:48.75ID:1cpEb7H4
自分も正直詳しく聞いてみたい
2017/07/08(土) 14:26:24.34ID:cqaW2ET5
どうしてだろう
278デフォルトの名無しさん
垢版 |
2017/07/08(土) 14:53:57.02ID:bx7kaphQ
ビショップの日本語訳の本ですが、ネットで注文して家に届きました。

下巻は表面がツルツルしているのですが、上巻は普通の紙みたいな感じです。

上下巻ともツルツルのが良かったのですが。。。

本自体も少しダメージがあるのが送られてきました。

もしかして、返品されたB級品を安く仕入れて売っているのでしょうか?
2017/07/08(土) 14:55:33.59ID:k7wFvHKJ
>>273
自分のレスに正しいってコメントするのって、バカなの?それとも自演失敗?
280デフォルトの名無しさん
垢版 |
2017/07/08(土) 15:13:10.57ID:Znuc+49x
線形なのか線型なのか、はっきりせい。
2017/07/08(土) 15:33:59.37ID:k7wFvHKJ
>>280
linear algebra の単なる訳語だからどっちでもいいんだよ、どうせ欧米の後追いなんだから
2017/07/08(土) 15:49:35.62ID:QkNdjw+7
>>279
表現的に自演
2017/07/08(土) 16:02:33.95ID:VM8GoqOU
日常的に自演してるんだなw そりゃワッチョイ提言があるたびに強硬に反対するわなw
2017/07/08(土) 16:06:04.61ID:trRPfY+9
自演博士 www
2017/07/08(土) 16:10:35.93ID:trRPfY+9
>>278
本は粗雑に扱われがちだから、そういうことはたまにある。通販の弱点。
表面の違いは版の違いなだけでしょう
2017/07/08(土) 16:11:33.54ID:AC4an/FF
>>278
お前は読まずに飾るだけなのか
だったら表紙だけコピーして弁当箱にかぶせて本体は安く売り払っちまえ
2017/07/08(土) 19:29:34.43ID:lfRb3a0C
次は日本語訳が悪いとか言い出しそう
2017/07/08(土) 19:38:29.05ID:ICTsGxtb
粗探しはじめんだろ
2017/07/08(土) 20:29:59.66ID:ylggERJO
>>282
お前はその自演博士に教えを乞うているのかw

>>273が自演っぽく見えるのは言葉のあやみたいなもの自演ではない。
どうせmap推定がなんでダメなのか述べても難癖付けられるだけだから
いわないでおこうと思ったが、仕方ないから言っておく

まず、ベイズ統計学的には事後分布を出すことこそが最大の目的であって
事後平均・中央値・最頻値などは副産物でしかない(それ自体は事後分布の姿を
把握するためのもの)
ただし、事後平均や中央値に関しては統計的決定論の観点から正当化可能
それに対して事後分布のモードは統計的決定論の観点から正当化できない

実用的にもMCMCが普及した今MAP推定はむしろ不便
プログラミングできない学生に教育としてベイズ的な考え方(≠ベイズ統計)
に触れてもらうくらいの価値しかない

レス付けられても付け返さないんでよろしく
2017/07/08(土) 21:09:17.54ID:WTG+UFVb
>>289
自演がバレて恥ずかしい、まで読んだ
2017/07/08(土) 21:10:07.27ID:ye4ztRvo
で、どこの書籍や論文に書いてあったかの根拠を示せっていってるんだろ。
自演博士は日本語も不自由か。
2017/07/08(土) 21:15:14.93ID:AbVAaa3F
はい次回から問答無用でワッチョイ決定な
2017/07/08(土) 21:21:16.45ID:yyvtXfzA
数学やり直してるけどボリューム見て絶望。
浅く広くやるか、、深くじっくりやるか、、
2017/07/08(土) 21:27:11.29ID:trRPfY+9
>>289
自演博士さん、恥の上塗りですよw

>>292
まぁワッチョイ入れるなら従う
2017/07/08(土) 21:41:09.83ID:96snkMHE
このスレの人達は、みんなこの分野の専門家なの?
「ニューラルネットワーク自作入門」とかいう本読んで
素人でも仕組みが理解できるし作れるぜ、ウェーイッ!っていうレベルなんだけど
そんな知識あるなら、いま流行りの分野だし、分かり易い本でも書けば随分儲かると思うよ
2017/07/08(土) 21:44:32.05ID:1cpEb7H4
素人でも仕組みが理解できるし作れる

なんて信じちゃうのは素人未満の何かだけだし
そんなのを釣って儲ける本書くのは恥
2017/07/08(土) 21:53:21.83ID:LFCUi1Tz
まだ嘘に近いこと書くやつの本が生きてる。淘汰されると信じてる。
2017/07/08(土) 21:53:30.22ID:k7wFvHKJ
>>289
自演博士は必死杉。ワッチョイ入ったらもう自演博士号は役立たないぞ

>>295
専門書は売れてもたかがしれてるし、
一般向けのSFもどきの本を書いて売るには著者の知名度がいる。
極端な話し、ホリエモンの名前なら売れるだろう。
2017/07/08(土) 22:01:30.27ID:96snkMHE
まー、プロから見たら実用性も何も無いものかもしれないけど
実際に自分で作ってお遊び程度でもきちんと動作するものが作れるのは嬉しいものだよ
2017/07/08(土) 22:04:49.72ID:LFCUi1Tz
普及率の高いラップトップでもできるから、素人の参入障壁が低いだけで、素人でもできるものではない。
専門書にしかなり得ないよなあ
2017/07/08(土) 22:09:24.45ID:1cpEb7H4
ぶっちゃけ>>271-274の流れは確かに普通の自己レス補足にしか見えんが
まあなんだ、楽しそうだな
2017/07/08(土) 22:38:57.08ID:y6uRndyS
人工脳
2017/07/08(土) 22:43:10.99ID:OzQvZ12j
Deep Learningに必要なのは専門知識というよりは教育者の勘に近いものになってきている。
こういう構造にしたらこういう特徴を学んでくれるんじゃないか、みたいな。
ニューラルネット自体はほとんどライブラリ化しちゃってるしね。
分析会社の友人が深層学習は粘土細工だって言ってたけど、まさにそんな感じ。
2017/07/08(土) 22:51:02.89ID:i0MmOriA
アホコン
2017/07/09(日) 00:45:01.92ID:2lChk8be
でもしばらくしたら粘土細工に仕事ぶんどられて
粘土細工の顔色見て生きていかなくちゃならなくなるんでしょ?
306デフォルトの名無しさん
垢版 |
2017/07/09(日) 00:48:51.21ID:Jr258EKy
機械学習のアルゴリズムより、何に使ったらいいのかでつまずいてる感
2017/07/09(日) 00:51:10.13ID:SDks0/xe
5割がそれ
残りの4割はデータ収集で詰む
2017/07/09(日) 02:56:34.94ID:AMxwJE6X
プログラミングで言うと言語作ってる側と言語使ってアプリ作ってる側を
積極的にごっちゃにして語ってる感があるのがこのスレ
2017/07/09(日) 03:35:12.54ID:sIgN2xg1
その混沌はこのスレの問題ではなくて AI 一般に見られる現象。
積極的に文系が騙る珍しい分野
2017/07/09(日) 04:45:31.60ID:y0wTv3iH
>>293
どこからやり直してる?高校?
2017/07/09(日) 14:18:44.21ID:lMgmJO68
数学だけは深くじっくり自分が分かるまでやるしかないよね
受験数学は時間のなさからそういうことやらせてくれないけど
2017/07/09(日) 14:53:34.33ID:TzMEy04X
大学の数学は昔より勉強しやすい環境が整ってるよ
書籍が充実してる
図書館探せば参考書も結構あったりする

昔(30年ぐらい前)は本当に教科書教科書してて頭のいい人しかできませんみたいな感じだった
2017/07/09(日) 14:55:18.51ID:Jwpk0hKO
マセマか
314デフォルトの名無しさん
垢版 |
2017/07/09(日) 14:58:56.46ID:Jr258EKy
理系大学生に最も売れている本
マセマ
315デフォルトの名無しさん
垢版 |
2017/07/09(日) 14:59:46.64ID:Jr258EKy
マセマは指定教科書がわからない場合にだけ手を出す本
2017/07/09(日) 16:41:27.12ID:9YyoGcoc
マセマなんて読むやつは2通り。
いい成績取りたいだけの効率屋、と正真正銘のできないやつ
317デフォルトの名無しさん
垢版 |
2017/07/09(日) 16:47:09.85ID:Jr258EKy
マセマは最低限単位を取るための本で良い成績なんてむりむり
2017/07/09(日) 23:23:41.32ID:sLDxf/Qp
人工脳
2017/07/10(月) 00:21:13.43ID:4WvgKTxL
人工無脳かわいいよ
2017/07/10(月) 00:24:50.34ID:cU2Z4oJp
人口無能w
2017/07/10(月) 10:33:42.30ID:IZCTr2Xd
人口脳
322デフォルトの名無しさん
垢版 |
2017/07/10(月) 16:30:41.17ID:hbYLDPUX
>>237
それはただの次元因子分析
大事なのはdiv/gradのほうだろ

>>261
それな
2017/07/10(月) 17:28:17.00ID:OAwCY67i
統計だろ
2017/07/11(火) 10:34:31.13ID:dHCGYXLu
関係文章読んでてビッグデータがビッチデータに見えた
どうかしている
2017/07/11(火) 11:56:50.24ID:2jnsc+l9
それ以前に日本語の文章読んでる時点で終わってるぞ
326デフォルトの名無しさん
垢版 |
2017/07/11(火) 12:03:56.99ID:7Wx6VZ83
Big Data が Bitch Data に見えたという可能性はないでしょうか?
2017/07/11(火) 13:26:08.44ID:2jnsc+l9
もしそうなら視覚障害あるからどっちにしても終わりやね
2017/07/11(火) 13:36:13.41ID:Mee20pSk
なにそんなにかっかしてんだ禿げるぞ
2017/07/11(火) 13:39:02.81ID:onaMF8hB
いや禿げてるからだろう
2017/07/11(火) 15:20:47.04ID:773fQNOS
人工知能もハゲには無力だから仕方ない
331デフォルトの名無しさん
垢版 |
2017/07/11(火) 16:12:37.80ID:DycQuLWa
ドフサですが?
http://www-formal.stanford.edu/jmc/jmccolor.jpg
332デフォルトの名無しさん
垢版 |
2017/07/11(火) 16:13:55.08ID:ueMb8Qbs
>>303
経済学のマクロ計量モデルに似てるな。誤差逆伝播法はないけど。
333デフォルトの名無しさん
垢版 |
2017/07/11(火) 18:54:10.77ID:dSS1j36W
[][Tebla][]

}

000-"Yob*RtStrike"[%Kil\]MO,fla>%$9999VLTS

001-GYORLith"0\R"/"ESUBA"%$%

HADO-"EM","L","O","NU"###END
2017/07/11(火) 19:26:26.83ID:h5MEx8hD
人工脳
2017/07/11(火) 19:47:49.62ID:/lbrjaDW
Radeon + C++AMPでDNNやろうとしてんだけど、前提となる行列計算がなかなか早くなんないな
メーカー公表値通りなら6TFlopsでなきゃならないところが0.8TFlopsしか出ず(大きな最適化はしていない)、こっから最適化してもせいぜい2倍が限度の気がしてしまう
GeForceを買ってもやっぱ素人が書いたコードじゃ早くなんないのかな?
336デフォルトの名無しさん
垢版 |
2017/07/11(火) 20:05:10.07ID:ueMb8Qbs
C++用のニューラルネットワークのツールキットprimitiv(仮)を作りました。
C++ネイティブでなるべく強い外部依存を排し、使いやすいインターフェイスを目指しました。
CUDA使用時は結構速いです。
https://github.com/odashi/primitiv/tree/v0.1.0-alpha
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況