【統計分析】機械学習・データマイニング22

■ このスレッドは過去ログ倉庫に格納されています
2019/01/13(日) 09:13:37.19ID:lpjZ4t830

機械学習とデータマイニングについて語れ若人


■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング21
https://mevius.5ch.net/test/read.cgi/tech/1541309676/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured
2019/01/31(木) 08:45:36.99ID:j1saZfoH0
単に、背景にある関数が線形に近いなら線形カーネルの方が成績が良くなるってことだよな
無駄にカーネルの表現力が高いとノイズに影響されやすくなる

関係ないが、多項式カーネルは次元を高くするほどフィッティングの成績は良くなると思ってたんだが
高くしすぎると悪化することもあるのを見て驚いた
サポートベクトルや素性の数に比べて次元を高くしすぎると逆に制約になるってことかね
376デフォルトの名無しさん (アウアウエー Sa7f-eDu2)
垢版 |
2019/01/31(木) 10:56:31.70ID:/c3SvgTga
制約というよりオーバーフィッティングでは
2019/01/31(木) 11:01:19.54ID:pd4BsQTXd
フィッティングの成績だから学習時の話だと思うが
2019/01/31(木) 12:26:27.71ID:S6N+PD6ia
フィッティングの成績が各点の二乗誤差の和とかなら多項式だと次数上げれば上げるほど誤差は減って、
データ点数以上の次数なら全ての点を通る曲線が作れるから誤差はゼロになるんじゃないか?
2019/01/31(木) 14:12:11.17ID:Bzc7eYfkd
SVMはサポートベクターとの内積(=カーネル)をとってその一次合成でスコア出してるのは知ってる?
多項式で項数が増えてもそれぞれに自由に係数を指定できるわけではないから、
サポートベクターが都合の悪い配置だと次数の多さが制約になることはあるかも
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況