X



【lgb,t-sne】カグラーたちのチラ裏【R,OpenCV】
■ このスレッドは過去ログ倉庫に格納されています
0001デフォルトの名無しさん
垢版 |
2019/09/15(日) 11:26:50.12ID:iRJRPfOp
Kaggleの手法やコンペンションについて"具体的"に語るスレ

カグル以外の話題、特にAI全般や業界事情などについては別スレでお願いします
0002デフォルトの名無しさん
垢版 |
2019/09/15(日) 11:29:21.04ID:iRJRPfOp
google-colabにドライブをマウントして使っているんだけど
先日なぜかファイルから読み込みはできても書き込みできないという状況になった
コードを書き直したりいろいろと試してみて、最後に原因がわかった
無料で使えるドライブの容量、15GBをオーバーしてた

……さっさと気づけよ、オレ……
0004デフォルトの名無しさん
垢版 |
2019/09/16(月) 01:48:45.12ID:tR9DvI/1
欠損値が多いからLGBばかり使われているtableのコンペンションで
連続変数の欠損値をすべて特徴量ごとにコードを書いて埋めてNNで回したら、
わりとLGBの結果に近い精度を得られた

これは暇人にしか出来ない手だな
0005デフォルトの名無しさん
垢版 |
2019/09/16(月) 01:52:37.53ID:tR9DvI/1
ついでに紹介しておこう
このライブラリは相当つかえる。Focallossに対応してる

Imbalance-XGBoost
0006デフォルトの名無しさん
垢版 |
2019/09/16(月) 02:27:40.99ID:tR9DvI/1
GMEANの結果をkernelに挙げて、いいねを稼いでる奴ら、いったい何がしたいんだろうな
0007デフォルトの名無しさん
垢版 |
2019/09/16(月) 10:54:57.34ID:tR9DvI/1
NNやロジスティック回帰を想定
・特徴量を多めに作っておく
・すべての特徴量を使って学習・テスト
・特徴量を順番にひとつずつ抜いて学習・テスト
精度を比較して、向上していれば、その特徴量は次回から使わない
kernelで拾ったアルゴリズムけど、これ普通に実務でも使えるな
0008デフォルトの名無しさん
垢版 |
2019/09/19(木) 14:09:15.38ID:gyvC4a+/
あぶねー。検証とテストの乖離をかるく見過ごしたまま、
パブリックスコアの上昇ばかり追い求めてた
これ最終日にやられるパターン。気がついてよかった
0012デフォルトの名無しさん
垢版 |
2021/01/24(日) 13:37:07.28ID:wSlEv8S7
OpenCVのUNICODE(対応ω)の実装が想像以上にカスだったでござるωωω
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況