【統計分析】機械学習・データマイニング17 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング16
http://mevius.2ch.net/test/read.cgi/tech/1498493352/ 人工知能というか機械学習なんて学習データが全てなんだから政治に利用しようとすれば当然各陣営に有利な結果しか出離されなくなる ゲームや画像には飽きたよね…
政治じゃなくてもいいけど別方向の問題を扱いたい >>351
もうそれは散々やられているよ
High frequency trading(HFT)とかcolocationでググってみたら 時系列モデルをセンサレス制御に応用できないかなーと色々試してる
実際にモノ動かしたほうが楽しいしね
機械系電気系との合わせ技で夢が広がるよ >>355
そもそもLSTM、RNNには解の収束性について、数学的な保証が何もない。
>>355のコメントから、既存の制御方法がどんだけ信頼性高いか考慮されてないことが伺える。(そもそも比較するだけの技術力も頭もないだろ?)
何でもかんでも機械学習が優れてるわけじゃない たとえばモータなどのアクチュエータを『精度よく制御する』点では機械学習はあまり期待しないほうがよい
既存の制御論を舐めてるとしか思えない >>359
例えば357の解の収束性についてどう理解している?
何も答えられないなら、>>359の通り 失礼訂正
>>362は>>360
ちなみにアクチュエータに機械学習を使用するなら、精度を求めることより、指令値(命令パターン)をどうするかなどに使用した方がよい 空気が読めてアンカーが打てるようになるまで ROM ってなよ >>345にあるようにろくに実力ない人が増えるのは本当に止めてほしい 例えば>>353みたいにセンサレスで制御したいなら当然、既存の実績ある制御方法をまず先にやるべきと思うけど? 議論点がずれてる
>>367はレッテル貼り
>>370は詭弁 >>368
そういう問題じゃないと思う (^-^; >>374
本当にわからないなら2ちゃん向いてない ID:gspQgzv/は
>>369にあるように既存の方法ををやらないのは何で? まあ、比較は大事だよね。
ろくに現状もわからず話題性があるほうにすがるのもどうかと思いますが‥ こういう話題性のあるほうにすがり付く馬鹿が多くて困るわ。
最近、就活生の相手してると機械学習やりたいってだけの奴が困るわ
既存の方法論とか、もうちょっと勉強してから発言しろと言いたい >>379
そんなことをしていたら年取ってしまうよ‥ 実際に企業でセンサレスやろうとするなら実績重視となる。既存の方法を優先して機械学習なんてやろうとしない。
つまりは>>353は学生さんと思ったけど?
学生なら時間掛けて技術磨けや あん?お前は駅弁か?
現代制御の最小次元オブザーバはデフォでしょ。
H∞ロバスト制御、システム童貞、連続時間カルマンフィルタはマスターしときい。 >>385
システム童貞
人に教えるつもりでそんな臭い間違え方するな 知らぬ間に盛り上がっててびっくり
皆さんが思ってるような高度な制御じゃなくて、
マップ制御、オンオフ制御、シーケンス制御が組み合わさったようなやつで
元々センサレスなのでフィードバックすらしてない笑
そういう泥臭い世界なんですよ
職人技で調整してたのを時系列データ処理で自動最適化できんかなーとか思ってただけ
学のある皆さんなら簡単かもしれないですが… >職人技で調整してたのを時系列データ処理で自動最適化できんかなー
訓練データが作れるならRNNあたりでできたり? 機械学習が理解できないからと言ってスレチを延々と続けるなよ
>>386
自己紹介しちまったんだろ >>379
機械学習スレで何を言ってるんだか、馬鹿は自分だろう まぁMNISTから先に進めなかったり、GPU環境が用意できなかったりで挫折して機械学習を批判し始める人も増えたな 信者のレスがなくなり超絶に過疎ったから荒れて草生えるのも仕方ない 制御理論の分野に限らず、新しいものを全力で否定する人は常にいるから
それだけのこと。 >>391
そもそもろくに機械学習理解してない奴が大杉なんだよ itmediaより
Google研究者著「Deep Learning」日本語版公開 東大松尾研が翻訳
ディープラーニングの教科書『Deep Learning』の日本語翻訳版が、無料で公開された。 東大松尾研なら社会人向けの無料公開講座
Deep Learning応用講座を受講したいなぁ
東大大学院の先端人口知能論IIと全く同じ内容らしい
http://deeplearning.jp/lectures/
ここは機械学習スレだからスレ違いかな? Google研究者著「Deep Learning」日本語版公開 東大松尾研が翻訳
http://www.itmedia.co.jp/news/articles/1709/06/news100.html
ディープラーニング(深層学習)の技術研究会であるDeep Learning JPは9月6日、
米MIT Pressが出版したディープラーニングの教科書『Deep Learning』の日本語翻訳版を専用サイトに一般公開した。
製本版を発売する前にフィードバックを得ることが目的で、発売後は公開を終了するという。 >>400
このオールスター教授陣、東大だから出来る授業だろw 日本では少し前まで
ITなら慶應が目立ってたけど
今のAI、DeepLearningは東大一択だもんな
次は東工大
京大、早慶はずーっと下って感じ これ面白そうだな
社会人が無料受講できるなら、他の大学生でもOK?
1. 2017/09/26 Introduction/Guidance ? 春学期まとめ
? 秋学期の紹介, 今年のハイライト、昨年の様子、成績評価等
2. 2017/10/03 高度な画像処理1 学習済みネットワークの再利用、転移学習、Fine-Tuning、VGG、Caffe入門
3. 2017/10/10 強化学習1 強化学習概要 ? 強化学習の問題設定 ? 価値関数ベースの手法と方策ベースの手法 ? Chainer, ChainerRLの紹介
4. 2017/10/17 生成モデル1 生成モデル概論、RBM
5. 2017/10/24 大規模データとDeep Learning HPC, GPU, Profilers, Database and Deep Learning
6. 2017/10/31 チーム開発(方法論、チーム編成) チーム開発、Gitとワークフロー、プロジェクト、注意点等
7. 2017/11/07 高度な画像処理 2 Region proposal, Semantic segmentation, Fast/Faster RCNN, Deconvolution, FCN
8. 2017/11/21 強化学習2 価値関数ベースの手法 ? TBA
? ケーススタディ (アクロボット, Atariなど)
9. 2017/11/28 生成モデル2 Variational Auto Encoder (VAE) と関連トピック
10. 2017/12/05 高度な画像処理3 TBA
11. 2017/12/12 生成モデル3 Generative Adversarial Networks (GAN) と関連トピック
12. 2017/12/19 強化学習3 方策ベースの手法
13. 2017/1/9 中間報告 ライトニングトーク発表
2017/1/16 補講日
2017/1/20 最終発表会 (Deep Learning Day) 基調講演、プレゼンテーション、ポスター・デモセッション ちなみに前期
1 2017/4/11 Introduction Deep Learningとは/人工知能技術の歴史、社会への影響/講義全体像と注意事項/ 全員挨拶
2 2017/4/18 Machine Learning 1 Pythonと線形代数,行列・テンソル,数式と実装のブリッジ
3 2017/4/25 Machine Learning 2 k-NN, Logistic Regression, Softmax, train/dev/testデータセット,学習プロセス
4 2017/5/2 Perceptron + Feed Forward Network, Gradient Descent Gradient Descent, MLP, Logistic Regression, Softmax
5 2017/5/9 Gradient Descent, Stochastic Gradient Descent, Optimizers TensorFlow基礎、各種Optimizers、重みの初期化など
6 2017/5/16 Autoencoders Deep Learning、特徴抽出、Autoencoder概要、dA, SdA, Sparse Coding, GPU
7 2017/5/23 Convolutional Neural Networks(CNN) CNN基礎、畳込み、プーリング
8 2017/6/6 Convolutional Neural Networks(CNN) 2 画像処理、前処理、Data Augmentation、Batch Normalization、可視化、最新動向
9 2017/6/13 RNN Basics 系列データ, RNN
10 2017/6/20 RNN and NLP Embedding, Projection, Word2vec, sequence-to-sequence
11 2017/6/27 RNN, NLP, Image Processing Attention, Image caption
12 2017/7/4 Summary and Advanced Topics Advanced Topics >>413
講師陣に「詳解ディープラーニング」の著者やPFNの人もいるんだな
深層強化学習はPFNが強いからだろうが TensorFlow
Caffe
Chainer
短時間でどれだけ教えるんだw 社会人向け公開講座の方は記載がまだだけど
院生向け先端人口知能論
春期 募集枠100人
秋期 募集枠50人
半分脱落...... 後期でも半分落とすの?
松尾研って恐ろしいなwww GANとか最新のDLだと
解説してる日本語の教科書無いだろ こういうことしているからダメなんだよなぁ
受ける方からしたらこんなカリキュラムで理解できるわけがないのに
教える方はこれで教えた気になっている 東大生だから半分残れたのか?
東大生でも半分落ちたのか? 別に必修の授業じゃないんだろ
受けてみたけど興味湧かなかったとか、教えるの下手すぎとかそういう理由でしょ
そもそも院なんてほとんど単位とかとる必要ないし不可も出さないものだぞ >>430
忙し過ぎて最近はやる気が出ない
人工知能関連は案件の数がとにかく多い。TF ばかりだが 社会科学とかの講義は一般公開するとキチガイが暴れだすだろうから難しい点があるけどさ
自然科学の講義なんか、ネットで一般公開してくれたほうが日本の世のためなんじゃないのかね 日本の大学の講義の配信なんて、音質が悪い、板書が見えない、と見るに耐えない。
配信向けに作成された米国や英国の講義を見た方がマシだわ >>432
いつのまにか TF 案件ばかりになったな。グーグル・ブランド恐るべし MIT Open Courseみたいに公開してくれればいいのに
変なの スタンフォードの動画は見てるだけで賢くなった気がする >>436-437
MIT やスタンフォードはいい仕事するよな。啓蒙活動に熱心なのは素晴らしい >>439
ちょっとぐぐってみたけど、現時点では講座数が少ないように見える。今後に期待かな >>314
リンク先消えてるけど
https://anond.hatelabo.jp/20150602120230
やろ。この二年間コピペを続けてたんやと思うと、継続力は評価できる。 python使えない、数学わからない、
のくそ会社から転職したい ■ このスレッドは過去ログ倉庫に格納されています