【lgb,t-sne】カグラーたちのチラ裏【R,OpenCV】
■ このスレッドは過去ログ倉庫に格納されています
Kaggleの手法やコンペンションについて"具体的"に語るスレ
カグル以外の話題、特にAI全般や業界事情などについては別スレでお願いします google-colabにドライブをマウントして使っているんだけど
先日なぜかファイルから読み込みはできても書き込みできないという状況になった
コードを書き直したりいろいろと試してみて、最後に原因がわかった
無料で使えるドライブの容量、15GBをオーバーしてた
……さっさと気づけよ、オレ…… 欠損値が多いからLGBばかり使われているtableのコンペンションで
連続変数の欠損値をすべて特徴量ごとにコードを書いて埋めてNNで回したら、
わりとLGBの結果に近い精度を得られた
これは暇人にしか出来ない手だな ついでに紹介しておこう
このライブラリは相当つかえる。Focallossに対応してる
Imbalance-XGBoost GMEANの結果をkernelに挙げて、いいねを稼いでる奴ら、いったい何がしたいんだろうな NNやロジスティック回帰を想定
・特徴量を多めに作っておく
・すべての特徴量を使って学習・テスト
・特徴量を順番にひとつずつ抜いて学習・テスト
精度を比較して、向上していれば、その特徴量は次回から使わない
kernelで拾ったアルゴリズムけど、これ普通に実務でも使えるな あぶねー。検証とテストの乖離をかるく見過ごしたまま、
パブリックスコアの上昇ばかり追い求めてた
これ最終日にやられるパターン。気がついてよかった OpenCVのUNICODE(対応ω)の実装が想像以上にカスだったでござるωωω ■ このスレッドは過去ログ倉庫に格納されています