【統計分析】機械学習・データマイニング21
■ このスレッドは過去ログ倉庫に格納されています
機械学習とデータマイニングについて何でもいいので語れ若人
※ワッチョイだよん
次スレ立ての際は、一行目冒頭に
!extend:on:vvvvv:1000:512つけてね
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング20
https://mevius.5ch.net/test/read.cgi/tech/1533635797/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured >>303
研究とかで発表するときはどういう値を使ってるのですか? Microsoft Facebookの人工知能ツール「PyTorch」への開発協力
https://aitimes.media/2018/11/20/1080/ 例えばkaggleとかなら初めからトレーニングデータとテストデータが分かれててテストデータとの答え合せで数値としての精度を用いてます。
自分で1つのデータを用いて精度を出したいときに、データが少なくてテストデータの選ばれ方にかなり影響を受けるというようなとときにはどういう風な値を用いればいいのかっていうのが聞きたいです。 >>306
テストデータの選ばれ方によって予測精度が全然違うみたいな時です。 バイアス・バリアンスでグクってみな
過学習気味だと思う 扱ってるデータの性質上データ数が少ないのは仕方ないのです…
今書いてるコードなんですが、
sklearnのcross_val_scoreでcvパラメータに層化分割を渡してます。(StratifiedKFold(n_splits=3, shuffle=True)
これでfor文で例えば100回回すと3つセットのスコアが100個出てきますよね?それで3値の平均のさらに100個の平均って感じで評価基準にしてます。3つセットのスコアの分散がそこそこ大きいのは仕方ないと思ってます。
これで良いのですかね。 仮にだが、同じテストデータを入力したとして、都度異なる結果を得るかもしれない。
そうなら気にしない。 >>314
まんま俺じゃねーか!
まぁケース買い直して難を逃れたけどな >>314
そのアニメおかしくないか?
その方向にガッ!とかいってひっかかるかな? 確かに。
おれは疲れているんだよ。
おれはおかしくなってる。 初めて来たけど新しくて注目されてる分野だけあってスレも活気があっていいね 新しい理論ではないけど、
計算機の進化で計算できるようになったのと、
データ分析が役に立つことが認識された
ことが大きいと思う。
理論として21世紀に出てきたものは
ほとんどない。
DLなんて50年前の理論たし。 基礎理論は昔に提唱されてたけど、実際できるようになってからの進歩は目まぐるしいよ
alphaGoとalphaGpZEROには恐れ入った 基礎理論とハードのスペックが揃えばそれだけで使い物になるわけじゃないからな ディープラーニングのG検定ってどうよ?
公式テキスト買って読んでるわ。 G検定でバーニーおじさんのルールってのが出たらしいけど、ググってもG検定関連の記事しか出ない
バーニーおじさんの出所ってどこなん >>233
落ちた人と比べたら受かった人はそれなりに理解していることが判るだろ
2級に合格した人が1級の能力を持っていないとは言えないけど
2級の能力を持っていることは判る
何も受けていない人は何も判らない
ゼロかもしれないし1級を超えているかもしれないし
判断する側からしたら区間推定の範囲を狭めることができる 人工知能の検定とか効果あるのか?
情報処理関連の国家資格のほうが有益だと思うよ 試験を受ける・受けないは自由だが機械学習専門で仕事にしてるような人が2級すら受かる能力がないとしたら大問題 資格は座学だからなぁ
本当にAI実技が出来るのかと
どっちかというと「会社で○年間人工知能の実務してました〜」
のほうが面接受け良いぞ
あとコラボラトリーやっと動かせた
思ったより簡単だったが
アップロードが少しめんどいな テストでは記憶が試されるが
別に覚えてなくても読んでわかれば全然問題ないはず >>334
自分で判ってると勘違いや自己暗示をかけているだけかもしれない 暗記しなくても調べれば分かるんだからいいっていうのは稀にしか使わないような複雑な公式とかならそれでいいんだけど
例えば統計検定2級までのような基礎的な内容に関してはそれではいけないだろう DLの検定はサンプルみただけでイヤになった、
と理論の先生が言ってた。 RX480で機械学習したいけど
plaidmlが認識してくれない
openclってRadeonソフトウェアいれてるだけだと動かないとかあります? 優れたAI開発者とは何ぞやと問いに対して、
海外では、アルゴリズムを開発できる人、Kaggleで上位を取れるような分析者、に加えて、
課題解決の為にAIを実装できる人というのが入ってくるが、
日本企業は、要件定義と開発は別物だという認識が強いのか最後のが出てこない。
つか、提案できるやつを引き抜いてくれないので、
導入事例が豊富なモデルの二番煎じしか出来ないのはつまらん ユーザー側が技術者に要件定義させないからな
知能指数がだいぶん違うだから先方の業務に関してもある程度的確な判断できるってことがわかってない モデルをユーザー指定にさせてるの?
それはまずいだろ
俺は要求精度だけだわ >>343
流行りのAIを採り入れたいけど結局は保守的ということかね プログラム書いたことないSIerが作った要件に従って下請けプログラマーがコーティングするだけなんだよな クロスエントロピー誤差の値がマイナスってありえないよね
本の通りにDCGANくんで学習させたら識別器の誤差がマイナスになるときあるんだけど 知らないうちにクロームの翻訳機能進化してんな 機電系技術記事みたいな簡単な英語ならほとんど問題ないくらいに訳せてる >>353
これを見て、翻訳機能をオンにしてみたけど、
英語の方が頭に入るレベルだった gmailの翻訳はよく分からんが妙に悪い
開発周りのページは大分読みやすくなった ganの生成モデルがよくわからないんだけど
潜在変数から画像を生成するのとかどういうことなの? >>352
あった、あったw
確率で区別するって意見が大体だったっけ
自分もそれでいいじゃんって思ってた
リンク先読んでもよくわからなかったけど
そんな単純な話じゃないみたいだね ロジスティック回帰とかSVMみたいに境界決めたいけどそもそも正負両データがないと境界を知りようがないから難しいということ 最近お仕事で機械学習しなきゃいけなくなってkaggleとかで勉強してるんだけどなんかものすごくもやもやする
ブラックボックスをいじって結果だけ出てくるの眺めてまたいじって改良されたらそれで良しみたいな……
プログラミングの問題みたいにきっちり正解があるとか、システムにこういう機能が必要だからそれを満たすコードを考えるとかならすっきりするのさ
なんていうか正解に至る道を自分で見通せない気持ち悪さみたいな いやそもそも正解も無いか。そこが気持ち悪いのかな
100%当てるモデルとかできるならいいんだろうけど現実的にないだろうし データには固有の性質があって、それを長く扱っている技術者だけがそういうことを知ってる。 kaggleで匿名化されてるデータやってても知見として得られるものないよ。 kaggleはそのへんが問題なんだよね 100%的中させる必要などそもそもない
人間だってミスして例えばメーカーでの検査ミスなら不良品を流通させてしまう
機械学習システムによって人間より十分に精度や実行速度が上がったりするなら明らかにメリットがある
にも関わらず人間より圧倒的に少ないミスを過剰に問題視する方がおかしい
また、ミスの原因がはっきりしないのが問題だと言う意見もあるが人間のミスの方が
どう考えても原因は曖昧であり、現在導入されている機械学習システムは所詮回帰分析を複雑化したものに過ぎず、
その係数を正確に知れる分だけよっぽど論理的に説明ができる 工業製品の検査は不良率○%以内って厳格に決められてるよ。 ヒヨコの雌雄は分からいけど猫と犬の見分けには自信あるぜ 我々はまずゴミの分別をちゃんと出来るようにはならねば。渋谷区45種類らしいぞ >>361
時間があれば
確率論→統計学→機械学習
と進めるべきなんでしょうね。
でも今どきはいきなりPythonですからね。
ま、客も分かってる人いないから。
もやもや解消には仕事を辞めて
6年間ほど死ぬほど勉強する必要あります。 医学部に受からんと、それに年寄りはマイナス加点だからね それらプラス
信号処理、システム同程、現代ロバスト制御、カーネル法、統計学、情報幾何あたりやっときゃよい だいたいの人がれべすぐえ積分です挫折するだろうけど >>381
測度論的アプローチは万人に必要ですか? 機械学習に数学は必要なし
したがって測度論など機械学習には全く必要ない みんな使ってるPCのスペックってどんなもん?
ボーナス入ったし買い換えようかと
今はi5、SSD128GB、メモリ8Gの学生用みたいなスペック >>387
法人向けはずっと上のものがある
dellのprecision tower7000シリーズとか
corei9がショボく感じる >>384
だな
野球やるのに、バットを作り方を知る必要はない ルベーグ分かってるけど機械学習には要らんなってことなのか、ルベーグ分からんけど機械学習で特に困ってないってことなのか 完備な距離空間作るために測度論が必要ってとこだけ理解できればもう要らない。同様の理由で確率論も要らない。
あと入りそうなのは確率微分方程式とかるまんふぃるたぐらいか。まあ、後者はリースの表現定理を理解できれば十分。 カルマンフィルターを知ってる俺って偉い、というところまで読んだ リースの表現定理は使いこなせるようになることをお勧めします >>393
横から訂正するよん
こんなことを知ってる毎月残業60hのエンジニアサラリーマンの俺ってば凄い 本当の一流なら例えば料理人だとラーメン作るのに小麦畑の土から拘るからな
単に腹を満たすためならそんなの不要だが本気でトップ狙うならそこまで考える必要がある 本当の一流は革新的で広く使われるモデルを提案できる人 そりゃイノベーターですな
そこ望むなら最低でも原理ぐらいは理解してないとだめやろね そんな難しい話は私には縁がありません
ひたすらお願いすることといえば、やさしい解析学ともっとやさしい線形代数の教科書を教えてほしい、ということです、ちなみに佐武で撃沈しています… ■ このスレッドは過去ログ倉庫に格納されています