【統計分析】機械学習・データマイニング20
レス数が950を超えています。1000を超えると書き込みができなくなります。
機械学習とデータマイニングについて何でもいいので語れ若人
※ワッチョイだよん
次スレ立ての際は、一行目冒頭に
!extend:on:vvvvv:1000:512つけてね
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング19
http://mevius.2ch.net/test/read.cgi/tech/1520586585/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured >>833
俺のは2018モデルだけどNVIDIAだったかな?
あと
2080 Tiの方がコスパ高い
https://i.imgur.com/SfoNEyI.png あー最新版TensorflowではmacのGPUサポートしてないわ courseraの"How to Win a Data Science Competition: Learn from Top Kagglers"っての始めたけど、
これはムズいわ
まず、ロシア人が何を言ってるのか聞き取れない >全部が全部バイブル通り行くとは行かないのが現実.「全てのモデルは間違ってる.完全なる解釈はない」
ほんそれ >>848
最先端のネットワークはモチロンそうでいいと思うのですが、
DropoutやらReLUとか組み込んだCNNならもう流行りだして2,3年は経ってると思うので
それくらいの構造のCNNでimagenetのような分類タスクしようと思った時にモデル選定とかどうチューニングしたらいいとかある程度まとめてくれてるような書物があったらいいなと思いました。 あれこれ楽すること考える前にCourseraの有名な機械学習コースのシラバスの各項目をざっくりとでも他人に説明できないレベルならCourseraやるのが一番手っ取り早い じゃ、chainerの話でもするか!
日本の会社なのに公式に日本語ドキュメントがないやん、とか CEATECでPFNが出してた片付けロボットすごいよな いい感じのクロスモーダルモデル考えたけど適用事例が思い付かない >>866
物体検出、物体判別、位置特定は他の所でも出来るんじゃね?
その正確さとかが実用になるかどうかだろうけど >>868
それらを現実世界のロボットの動作に結びつけるのは難しい
あと口頭で指示も出せるらしい PFNロボのアピールポイント:
・衣類の画像認識ができる(衣類、布は置き方によって形状が大きく変わるため難度が高かった)
・対象によって掴む位置、掴み方を変える(けん玉は棒の部分を掴むなど)
・日本語の命令に従い行動できる
・ラフな言い方、ジェスチャーを認識できる(指差しながら「あそこに片付けて」で認識できる)
・展示会の騒音、変化する照明環境で1日連続稼働できる どこもかしこも画像データを扱う事を前提として文章書いてるから嫌になってくる 二ーズは疑問だけど、頭の固い機械制御の業界には良い刺激 メリットが分かりやすい分野で教科書書いたら、参入者が増えるから先行者は嫌がるもの 先行者が新規参入嫌うって、オープンソース化で新規参入増やすことで急速に技術の新陳代謝促すことで発展しているIT業界を逆行しているようだ >>876
人の作った定石を覆す一手が生まれる可能性がある >>876
人にしか出来ないと思われていた高度な処理が可能になった ゲームで定石以外の手を打つAIはいるけど
脳外科手術とかで定石以外の手をAIに指示されて
実際その通りに手術出来る医者っているのかな 手術の機械学習って学習データどうするんだ?
医療では当面は診断用途だろう
怪しい所を自動ピックアップしてくれるから楽になる 全く同じ条件の学習が上手くいかなくなったんだけど原因は何が考えられますか
1回目やったときは70epochでvalのaccが.95くらいだったのに
2回目やったら1epochからずっとvalのaccが.65前後のままtrainのaccだけが上がり続けるから過学習してると思うんですけど
実行毎に過学習起きたり起きなかったりとかあり得ますか? みんなすげぇなぁ
機械学習の本まずは1冊やり終えたけどここで話されてる内容ほとんど分からん >>883
inceptionv3のimagenetです データ分析の基礎的な部分をちゃんと身につけないとと思って統計の勉強始めた
学のある人なら当たり前に知ってる事なんだろうけど自分には知らない事ばかりで結構面白いって感じた
多分最初だからこう思うだけかもしれないけど >>884
特にディープラーニング関連は本になる頃には陳腐化してるからなぁ
ある程度基礎を勉強したらネットで解説記事とかトップカンファレンスの速報まとめとか有名な論文(の解説)とかを読むと良いかも >>884
ここで話されてる内容はもうかなり古くて、だからレスする人も減ってる 統計は高校で習ったから高卒「でも」充分理解できるもんだと思ってたが
最近の高卒は統計習ってないのもいるんだね >>890
統計っても機械学習だとロジスティック回帰とか主成分分析とかカーネル法あたりだろう
高校じゃまずやらない kerasでGPUを使う時に
最初のプロパティみたいなので
totalが4GBあるのにfreeが3.2GBしかありません
4GB全部をkerasで使うためにはどうすればいいですか >>892
>最初のプロパティみたいなの
これって何? 三宅陽一郎は日本のゲームAIの権威と言われてるそうですが本当なのでしょうか? クラスタリングって教師ラベルがあるデータに対しても行うことってあるの?
職場の人が教師ラベルあるデータに対してクラスタリングするって言ってたんだけどそれは分類とは違うのかな?と思って聞いてたんだけど自分は知識がないから知らないだけで主成分分析みたいに探索的に何か見つけるために使う事も出来るのかな? アホたちは
いまのいんちきNNモデルをAIと呼称してんのか >>900
その場合クラスタリングとは呼ばないような ラベルが既知なのにクラスタリングっていうのは、聞いたことないしやる意味もないのでは。だってデータの距離空間が定義されてるのにわざわざ別の部分集合に割り当てる意味が分からんな。
次元削減なら分かるけど、クラスタリングなんでしょ? クラスタリングではなく分類の手法として教師あり学習ではk近傍法ならあるけど >>906
学習の時は計算量かかるけど使うときは大した事ない
理論保証とブラックボックスさだと思う >>905
すべてのラベルが既知ならそれはしなくない?
上の質問者の意図が全くわからん >>900
上の人が言うように、基本的にその場合クラスタリングとは呼ばない。クラスタリングは教師なしだから。
それで質問に答えるとしたらあるデータX(Xはベクトル)にラベルがあるとして、X以外のデータが入力されたときに例えばaとする。そのaとXとのユークリッド距離を測り(k近傍法)、どのx_iと近いのかを判定したりはする。 https://teratail.com/questions/152987
今CNNの学習をしていて、
このページの1つめの結果画像のような状態なのですが、
原因は何だと思いますか? Jupyterってジュパイターと発音するんだな
pythonのpyなのは分かってたけどなぜかジュピターって読んでた こういうのに最初に大金を出した人が美術史を作っていくのや まあ、AIはお金になるという実績を作ってしまったな >>917
一目瞭然じゃん、教えて欲しいのか、試してるつもりなのか。 train か少ないとか、val と train の性質が違うとかもあり得るが >>919
これも過学習なのですか?
ページの人が答えてるように下にあるresnet34の結果が明らかに過学習なのは分かるのですが
こんなに振動する過学習もあるのですか? あと、accがほぼ100%近いのにlossが10もあるのが理解出来ないのですが
こんな状態あり得るのですか? >>795
>>>792
>そこまで高いの買わなくても、
>サブ機に1050Ti積んでますけど
>inceptionv3の199層〜のファインチューニングでも
>32000枚を100エポック回して大体5時間で終わりますよ
>低価格でいろいろ試すには悪くない性能だと思うので検討してみてはいかがでしょうか。
ありがとうごさいます
そこそこのグラボ買ってみます NNは最小限の構成から始めて
学習曲線を確認しながらレイヤー数を増やして複雑にしていくのが常道だから
まず3層ぐらいの単純な構成だとどうなるのか見るべきじゃないのかな
teratailの例を見れば少ないレイヤー数なら普通に過学習で見られる学習曲線なわけだし
いずれにせよどんなデータを使って何を分析しようとしているかもわからない
ネットワークの構成もわからないで学習曲線だけ出して的確な回答を期待する
というのも無理があるかと でかいネットワークで学習するとむしろ汎化性能が上がるって説もあるよね むしろ期待通りの結論に到達するように
学習させてるのがいまのウンコAIだからな むしろ期待通りになるように学習させないでどうするんだよw
間違った教科書で勉強したら間違った答えを出すだけ つまりオマエが作ったAIは
オマエより賢くなることはない
アホのまま 教師あり学習なんだからそんなの当たり前やん何言ってんのこの人 作り手の想像を超えた知性が得られたとしてそのことを数値で評価することなど不可能なんだから、そもそも作成に成功したかどうかすら誰にも分からないわけで >>936
強化学習なんかだと、例えばゲームで人間の思いもよらない戦略を学習する事もあるし、スコアとかの客観的な評価軸もあるぞ 強化学習は報酬を与えるルールさえ決めれば後は膨大な計算コストがかかるだけで結果は決まっているわけだから作り手を超える賢さを得たと言って良いかどうかは微妙なところ 賢さの定義などないけど>>934が賢さについて言ってたから使ってみただけ この分野、売り逃げがしにくい。
それが良さでもあり悪さでもある 本当に初心者ですけど質問です。
他クラス分類してて線形モデルを考えてるんだけどグリッドサーチしてCを出すプログラムを書いた。
そのプログラムを数回走らせると毎回違うCが出てくるんですがそう言うものですか?
ちなみにaccuracyはおんなじ値が何回も出てたまに低かったり高かったりします。 >>942
プログラムがどうなってるか分からないけど(毎回乱数で変わる値をしようしてるとかあったら)、普通は何度実行しても同じ結果正則化パラメータCを出力しなければいけないと思うよ。
プログラムを見て乱数で設定してるところがないかを確認してみては >>945
乱数シードは固定してないです
固定してなくても同じ値が出るってことですか? >>946
固定してなければ違う値が出ると思う。固定してればもちろん同じ値が出ないとおかしな話だとは思うけど。。。
(そういう乱数の次元の話じゃないかなと思ったので) >>947
研究で、もらったデータセットでやってるのでなんかおかしいのかなと思ってました。
irisのデータでも同じような挙動だったので関係なかったです。毎回違う値(振れ幅もバラバラ)なのは普通ということなのですね。 機械学習知らん人に説明する度にAIって便利な言葉だと実感する
最適化じゃなくて学習とかクッソ曖昧な言葉で納得してくれて本当助かる レス数が950を超えています。1000を超えると書き込みができなくなります。