【統計分析】機械学習・データマイニング18
レス数が1000を超えています。これ以上書き込みはできません。
機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ
※ワッチョイ
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング17
http://mevius.5ch.net/test/read.cgi/tech/1502032926/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured >>952
逆行列を求めるっていうのは、↓の式(7)を求めることに相当する?
ttp://cl-www.msi.co.jp/reports/svm.pdf >>955
じゃあ、>>954の方針でやってみるよ。
いろいろありがとう。 逆行列を計算する方法知ってるかいな?次元は知らんけど ちげえよ。
ニューラルネットの性能のほうが圧倒的になった今、もはや過去の産物が必要とされないから そもそもカーネル法は単体の技術じゃない。
他の手法と併用出来る応用性の高い技術。応用先はサポートベクトルマシンに限らない。 ディープラーニングにもカーネル法は当然応用できるが、単純にただ併用するだけでは意味がない。
恐らくもうすでに誰かがやってると思われるが、その結果だけでカーネル法ダメダメと決めつけるのは勿体ない。
もう一工夫取り入れると‥‥ ってところまで誰かやってくんないかな〜。
業種が違うから表に出せる機会がない 理論的、究極的にはにはそういう前処理すら必要ないのがニューラルネットだけどね
その操作が本当に判別に有効ならそういう処理を行う層が学習されるだけだし ニューラルネットは前処理いるじゃねえの?今は違うのか? >>968
昔も今も変わらない。
>>967の方が、なにか大きな勘違いをされているだけ 空間を一度別空間に写像してから‥
なんてイメージが付いちゃってるから>>967みたいな発想になるんだろうね。
ほんと勿体ない ニューラルネットだけ別スレにしたほうがいいんだけどな
>>962
ド素人 www
>>963
同意。 究極的にはって書いたけどそれでも違うの?
理論上は無限層重ねたNNはいかなる関数近似もできると思ってたけど 仮にNN中で汎化性能維持するのにカーネル法使うにしても「もうひと工夫」がなにしたいのかもわからん状態じゃなんとも… >>977,978
それはぜひご想像してください。
というか、以前のスレ追いかければ言いたいことは追えるかと
>>979
3層というか‥ そういえば皆さん中間層1つのNNって何層NNって読んでるの
全結合処理に重点おいて2層って言う人と、ノードに重点おいて3層って言う人がいる印象 タイトルに初心者スレと入れた方が良いね
というか次スレはいらねぇだろ >>977
適切にデータが用意されていれば(前処理されていれば)
という条件の元 >>983
俺も同じ疑問を持った。まぁ実験すると言ってるだけだしw 今更ながらランダムフォレストを勉強中なのですが、木の深さと木の数はどのくらいの値にすれば良いのでしょうか?
また、木の数を増やしていくのと、木の深さを上げていくのではどっちがオススメですか?数十万個のデータから決定木を生成したいのですが >>988
分類か回帰かで違うみたいだけど、普通分類なら深さは制限しない。
木の数を増やしていくと汎化性能は上がるけど、その分計算時間がかかるようになるので
OOBエラーなんかを見ながら木の数を決定するのが一般的かなぁ。 このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 148日 2時間 21分 7秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。