0954デフォルトの名無しさん (ワッチョイ 67b3-5maD)2018/03/03(土) 14:07:43.34ID:zx4Tcgpy0
>>952
逆行列を求めるっていうのは、↓の式(7)を求めることに相当する?
ttp://cl-www.msi.co.jp/reports/svm.pdf 0957デフォルトの名無しさん (ワッチョイ 67b3-5maD)2018/03/03(土) 15:31:05.81ID:zx4Tcgpy0
逆行列を計算する方法知ってるかいな?次元は知らんけど
0959デフォルトの名無しさん (アウアウイー Sadb-IhxS)2018/03/03(土) 21:51:51.31ID:iqY33+Pma
0962デフォルトの名無しさん (ワッチョイ 071e-wl/W)2018/03/06(火) 03:50:25.33ID:sizHzr450
ちげえよ。
ニューラルネットの性能のほうが圧倒的になった今、もはや過去の産物が必要とされないから
そもそもカーネル法は単体の技術じゃない。
他の手法と併用出来る応用性の高い技術。応用先はサポートベクトルマシンに限らない。
ディープラーニングにもカーネル法は当然応用できるが、単純にただ併用するだけでは意味がない。
恐らくもうすでに誰かがやってると思われるが、その結果だけでカーネル法ダメダメと決めつけるのは勿体ない。
もう一工夫取り入れると‥‥
ってところまで誰かやってくんないかな〜。
業種が違うから表に出せる機会がない
理論的、究極的にはにはそういう前処理すら必要ないのがニューラルネットだけどね
その操作が本当に判別に有効ならそういう処理を行う層が学習されるだけだし
ニューラルネットは前処理いるじゃねえの?今は違うのか?
0971デフォルトの名無しさん (アウアウイー Sadb-IhxS)2018/03/06(火) 11:44:24.56ID:1xSMtB3+a
究極的にはって書いたけどそれでも違うの?
理論上は無限層重ねたNNはいかなる関数近似もできると思ってたけど
仮にNN中で汎化性能維持するのにカーネル法使うにしても「もうひと工夫」がなにしたいのかもわからん状態じゃなんとも…
そういえば皆さん中間層1つのNNって何層NNって読んでるの
全結合処理に重点おいて2層って言う人と、ノードに重点おいて3層って言う人がいる印象
タイトルに初心者スレと入れた方が良いね
というか次スレはいらねぇだろ
0984デフォルトの名無しさん (アウアウイー Sadb-IhxS)2018/03/07(水) 08:19:35.33ID:Bp6mjckSa
>>977
適切にデータが用意されていれば(前処理されていれば)
という条件の元 今更ながらランダムフォレストを勉強中なのですが、木の深さと木の数はどのくらいの値にすれば良いのでしょうか?
また、木の数を増やしていくのと、木の深さを上げていくのではどっちがオススメですか?数十万個のデータから決定木を生成したいのですが
10011001Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 148日 2時間 21分 7秒