Deep learning
■ このスレッドは過去ログ倉庫に格納されています
学生時代に読んだ論文の著者がFacebookやGoogleで働いてるのを見ると、
もっと論文を読み込んでおけば良かったって、とても損した気分になる
やっぱり、あれをゴミ扱いしていた俺の指導教官がアホなのだ ttp://grey.colorado.edu/emergent/index.php/Main_Page なんだよこの糞スレは
OSSならCaffeというスゴいのがもうあるだろ
DLは俺も勉強してるけどこれは難しい
確率論や機械学習ある程度理解してないと読み解けない Baidu研究所のDeep Speech(DeepLearningを使った音声認識)
http://usa.baidu.com/deep-speech-lessons-from-deep-learning/
DRNN使ってるけどさ、あれって言語モデルで使う場合、
現時点の入力単語に対して、次来る単語を予測するモデルじゃなかったっけ?
文献見ると、1つのニューラルで、音響モデルから言語モデルまで全部任せちゃうって書いてるよ。
どうやってんだ。
しかも、RNNの場合、入力と出力の数をあわせなければいけない。
合わせるにしたって、入力波形のアライメントというかサイズってどうやって特定してるんだろ?
その音素区切りをやってる事前処理の方が気になるよ。 ConvolutionalNeuralNetworlの
畳み込みレイヤーの3Dとか2Dってどういう意味?
多分、俺は2Dしか知らないと思う。
フィルタにかけるテンソルの単位が何枚にも重ねて一度に処理するから速いってだけ? >>39
cuDNNの話?
それであってるけど、3DはFP16対応やら最適化やら不完全で、
nVIDIAによると現状3Dはパフォーマンスでないから、2Dでやるのが吉。
複数画像を1枚にまとめてミニバッチ処理にするとよいよ。 Tensorにするのと、ミニバッチにするのの違いは?
どちらも複数の画像をまとめる感じだよね。
上に重ねるか、横に並べるかの違いのイメージ。
特性とかに違いとかありますか? ここまでほとんど有益な情報無しとか終わってんな
日本の知性の総本山である2chでこれじゃあな
DQNやろうぜ つい5〜6年前までは、ニューラルなんて過去のテクノロジ・・・っていう研究者が殆どだった。
そもそも、原因と結果がはっきりしないアルゴリズムなんだし、精度でなければ研究的にはただのゴミ。
理論を詰めることすら出来ない。
大半の人の中では、何か放り込んだら何かしら結果が出るってものだったしな。 >>44
情報持ってる人は、外に漏らすメリットないからな。
今まともに実装できる人は、自分で開発して売却すれば億単位の利益が入ってくるドル箱なんだし。
友人も、DeepLearning系やってる人は、Googleとかにガンガン青田買いされてとんでもない報酬貰ってる。
そりゃ、情報は独占するだろ普通に。
今のWebは情報持ってないけど興味ある人達が、
ちょこっとCaffeやpylern使って、その設定を公開してるだけの状態。 万能じゃないことにまだ気づいていないバカがいるから 万能である必要は無いのだが
勘違いしてる奴がいるな deep learningの本スレってここですか?
理系板回ってみたけど見つかんなかった 零和有限確定完全情報ゲームのAIを作るとして、
定石や手筋、上級者の棋譜といったものがない場合、
どのような学習方法が考えられるでしょうか。 逆に教師あり学習ならできるんじゃね?ゲームを通じての各局面に対する着手の組を
入力にして勝敗を出力にすれば。
局面がごく小さいゲームじゃないと収束しなさそうだけど。 ゲームだと勝った局にも悪い手があったり、負けた局にもいい手があったりして、
正しく学習するのがむずかしいとおもってます。 ディープラーニングで必要な教師データ数の指針をまとめてるような資料ない? >>55
そりゃ簡単だったら囲碁はとっくに人間に勝ってるよ
あ、囲碁は完全情報ではないか deep learningを試行、実行、検証、、、実用への難しさ。
・そもそも適切な能力を計算機が用意できない。
・適切な計算機を、仕様に沿って実装し試行するために必要な資料が無い。
・お金を出せる組織が、人員と、機材、環境津繰りに関心を持たせる動機付けが必要。 APIがどんなものあるかとかどう使うのかとか裏で何やってるかとかよくわからんかった。
チュートリアルの最初のほう動かすだけで精いっぱいだった。
手書きの数字認識とかいうやつ?
俺の頭じゃとても応用まで行きそうにない。
俺がやりたいことやろうとするとデータも自前で用意する必要あったし。 まあ僕もディープラーニングの本読み始めたところでちんぷんかんぷんなわけだけどw とりあえず環境作ってTensorFlowいれてチュートリアルが動くのは確認した。 conv3dって見たことないんだが、三次元の畳み込みって需要ないんだろうか? >>71
あるよ
動画と、ct mri なんかのボリュームデータで使われてる
動画はリカレントが多いけど >>72
オススメのconv3dできるライブラリとかあります? >>73
theano で使えるって聞いたことあるけど、chainer で、自前で書いた ChainerってGeforce使ってないと使えないの? gpuで動かすならnvidiaじゃないとダメ
amdでは動かない
cpuだけでも動くよ >>77
thx
たしかにCPUだけでも動くけど、CUDAのインストールは必須なんだね TensorFlowでいいわやっぱ
これからの主流はTensorFlowでしょやっぱ 二種類の画像で教師ありの学習をさせて画像を変換するネットワークを作ってみたいのですが参考にする論文の検索ワードが思いつきません
何か良いものがあれば紹介していただけないでしょうか ごめんその説明はちょっとわからないよ
変換ってどう変換したいの?
モーフィングがしたいってこと? >>82
分かりにくい表現で申し訳ないです。
画像を必要な領域と不要な領域に分けて不要な部分を黒塗りにするとか、
点がたくさん打ってある画像からその点を点電荷と見なしてポテンシャルのマップを出すとか、
ポテンシャルのマップからそのポテンシャルのマップ上で自由に運動する粒子の存在確率マップを出すとかの類の変換がしたいです >>83
そういう処理なら既存の画像処理のアルゴリズムで十分実現できるのでは?
ニューラルネットワーク使うまでもないんじゃないの >>84
まだこれの全容を掴めておらず、何だか近いような違うような気がします。本腰を入れて調べてみます。
大変参考になりました。ありがとうございます
>>85
実は上であげたような類の変換を教師あり学習で覚えさせたいのです
もしそのようなアルゴリズムがあれば教えていただければありがたいです なんでmnistやるときはピクセルの値を0〜1にしないとうまく学習できないんでしょうか? >>88
学習データの圧縮の影響じゃないの?
カラー画像扱うより2値画像の方がデータ量少ない。
しかもその画像を万とか億単位で学習させなきゃなんない。その結果を使って認識してる。
どうしてもカラー扱いたいなら、学習データからrgbの3ファイルに分解して3原色毎の学習させて、上位段を3原色の認識結果を更に学習させたらいいんじゃね?
これで信号機の配置順に関係なく正確に判別出来ると思うけどなぁ。色判別必要な認識からちょっぴりエスパーしてみたw 質問者も回答者もワケわかってなくて失笑
mnistすら回したことない人がこのスレにいるのも不思議
質問者が言ってるのは二値ではなく最小0最大1のこと
別に元データのように256段階でも精度はでるが、
使ってるサンプルプログラムが0から1を受け入れるように書かれてるだけの話
大方chainerあたりなんだろうけど mnistにはそもそもカラーデータなんて無い
グレースケール256段階の手書き文字
ここが2chでよかったね
mnistのデータセットの仕様知らないのは機械学習を知らないのと同義 0..1の範囲だと扱いやすいから、そうしてるだけっていう >>90
>>92
kerasの畳み込みニューラルネットをjuliaから呼び出した時の話なんですけど、255で割るのを忘れて実行すると全く学習できなくなってしまったんです。255で割ったらすんなり学習しました。
今指摘されてPythonからの呼び出しで255で割らずに実行したら割った時より学習が遅いものの、たしかに学習しているのを確認しました。
なんだかよくわからなくなってきたのでもう一度コードを確認してみます。ありがとうございました。 「慶應ミスコン中止」の陰に1年生女子「集団強姦」 加害学生を直撃!
週刊文春 10月11日(火)18時1分配信
http://zasshi.news.yahoo.co.jp/article?a=20161011-00006659-sbunshun-soci
「慶應ミスコン中止」の陰に1年生女子「集団強姦」 加害学生を直撃!
事件現場
10月4日、“女子アナの登竜門”とも称される「ミス慶應コンテスト」の中止と、同コンテストを企画・運営する公認学生団体「広告学研究会」(以下「広研」)の解散が発表された。
慶應大学側は、「告示文」においてその理由を「未成年飲酒」によるものとだけ説明したが、小誌取材により、大学側が明かさなかった「広研」の男子学生が引き起こした重大な事件が明らかになった。
事件が起きたのは9月2日、現場となったのは、神奈川県葉山町内にある広研の「合宿所」だった。事件の全貌を知る広研所属の学生が語る。
「この日は、広研が夏の間に運営している海の家の撤収を行う作業のため、6人の男子学生が合宿所に泊まっていました。作業終了後、
酒を飲むことになり、呼び出されたのが6人と顔見知りだった1年生のA子さんです」
そして深夜、男子学生たちは酒で意識のなくなったA子さんに襲いかかったのである。しかも、あろうことか、その様子を別の学生が撮影し、実況まで行っていたという。
男子学生の一人は小誌の直撃に対して最初は偽名を名乗ったが、「何も答えられないです」と言いながら、本人であることを認めた。
「謝罪の気持ちは本当に……。時が来たら連絡します」と言い残すのが精一杯だった。
一方でA子さんの母親は、小誌取材に対して、警察に被害届を提出したことを認めた。
上記事実の確認を慶應大学に求めたところ、「今回の解散命令の基礎になった事実は告示文に記載されているとおりです。なお、
今回の処分は、関係者に複数回にわたる事情聴取を行う等、大学として可能な限りの調査を行ったもので、適正なものと認識しております」との回答があった。
詳細は、10月13日発売の「週刊文春」10月20日号で報じている。
<週刊文春2016年10月20日号『スクープ速報』より>
http://i1.wp.com/media.sairilab.com/wp-content/uploads/2016/10/keioumi3_4.jpg?w=650
またチョーセンジンか。 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f) 画像識別にはCNNだそうですね。
動画識別で、時間による画像の変化量で、識別(Classification)したい場合には、どうするのでしょうか。
CNNでできるのでしょうか。 生体組織を動画でとって、
乾燥の仕方、
乾燥しやすい乾燥しにくい、とか、水分や油分足りてる足りない、
を分類したいです。 >>97
従来から画像処理でやられてきたことなんでしょうか?使われてきた特徴量とかの知見なしにいきなりCNNはかえって遠回りかも? 従来の画像処理がイマイチだったのでDNN、という流れです。 オプティカルフローで1枚にしてCNNする
か、
複数画像を3D CNNする
か、
といったところなのでしょうか。 質問です:
画像データを、教師なし学習でクラスタリングしたいと思っています。
機械学習〜>Deep Learningの流れで、
教師なし学習よりも教師あり学習が主流になってきっぽいのですが、
前述のDeep Learningで画像データをクラスタリングするのは、どうやるのでしょうか? >>101
いろいろあるけど、autoencoder 使って、その後クラスタリングとか >autoencoder
って、
教師ありなんですか、教師なしなんですか?
自分あるサイトで教師なしだと思ってたら、別サイトだと教師ありとなってたり、
やはり基礎が無いといろいろと難しいですね。 それ自動生成した文章?
生成器自作したならすごいね うお、俺のレスもおかしくなってる
すまんこっちの環境の不具合みたいだ kwsk、kwsk。
実はAutoencoderの教師あり学習サンプルで勉強していたのですが、本当は教師なしのクラスタリングが欲しくて。
それも単なる機械学習のクラスタリングじゃなくて、DNN的にデータ側から分類を発見、みたいな感じで。 だな
もし答えても、その答えだけでは絶対理解できないはず 本は10冊程度読める状況なうえ、
自費でゼロから作る〜
も買いましたよ。
Kindleのみの本も持ってます。 これって、高校生の数学程度だと、勉強するのはやっぱりそうとう無理でしょうか?
秋葉原の橋の近くの本屋さんでパラパラめくってみたのですけど、動かすくらいはなんとかなるかもしれない、意味がよくわからないな、と。
やっぱり、大学でコンピュータをちゃんと勉強したような人じゃないと、ディープラーニングって意味がわからないものなのでしょうか? >>113
必要な数学とか統計学も一緒に勉強してしまえばいいと思うよ。 >>114
統計とかも勉強する必要があるんですか。
なかなか大変なんですね
ありがとうございます。 >>115
動かすだけならNVIDIA DIGITSあたりが手軽だと思うよ。 意味が分からない方が幸せかもしれない
知ればあまりの制約の多さに、絶望するだろう
期待しているものには全然届かない >>117
そうなんですか。
買ってきて、パラパラ読んでる本だとPythonでやってみようとあるので、使わなくなったパソコンにPythonいれてやってみようとしてます。
専用のハードまで買うのはなかなか難しいですね。 >>118
まだ本を買ってきて、これから読みはじめるとこなので、挫折できるほど進んでません。
どう言うことができるようになる技術なのか、ある程度わかるようになれたら、いいなぁというのが今の目標です。 だってkerasで凝ったことしようとするとすぐにtheanoが顔出すんだもん H265の検証→アニメ
VR→アニメ
顔認識→アニメ
画像生成→アニメ
なぜなのか
本当にがっかりする >>114 石村貞雄・園子の御夫妻が「ディープラーニングのための数学」とか東京書籍より出してくれんかな。 >>114
統計やらないといけないというのは
SQLには集合(集合論理、集合演算、述語論理)やらないととおなじなんでは
事典をパラパラめくるのは気づかせられるときあるけど
数学も行列演算だけでよいきがする >>126
ヤコビアンやらヘッシヤンやらナブラとかだっけ?
そこらは暗号アルゴリズムがライブラリで実装かつ隠蔽されるみたいにユーザより開発者はきにせんでいいのちゃうかな
MITやStanfordやのサイトのぞくとMLでそこらバリバリでてくるけど
Stanford Prof. Ng のMLのCoursera だとOctaveで行列演算がメイン、 Jacobianや偏微分ちらり、最適化降下アルゴリズムはライブラリ呼び出し
DeepLは必要なってくるのかな 2月は卒研で何も出来ない
3月締め切りのいい会議ないものか CNNしようとすると、フィルタの可視化とかしたいので、やはりRGB(BGR)ですよね。
それだと3バイト。
しかしながら、画像に4方向(上下左右)を持たせたいのですが、どうするのでしょうか。 >>129
とりあえず16バイトぐらいもっといたらええやん
いらんかったら使わんでええし、足りんかったらまた言ってや >>130
16バイトの画像形式ってありましたっけ?
CNNのフィルタを可視化したいので、画像形式じゃないと、困ったことになります。 >>130
1組の4枚の画像をそれぞれ別のCNNに送り込んで出力層で加算して
softmax関数を通す方が取り扱いが楽だと思う。
>>131
16バイト画像形式可視化をコーディングできないならCNN出力合成も無理かな?
それなら4方向の画像を2x2に並べた1枚の画像で学習させればよい。
機械学習スレに学習した画像を可視化する記事がある。
http://echo.2ch.net/test/read.cgi/tech/1487433222/19 >>130
>1組の4枚の画像をそれぞれ別のCNN softmax関数を通す
そういったことが実現可能なんですね。
それがやりたいことです。
>可視化をコーディングできないなら
C++とかならいつもやってますが、
実は、M(ry、とかでやってるので、
専用関数を使うのですがその中身を見るとゴリゴリで、
慣れてなくてw
>記事
読んでみます。 >>130
>4方向の画像を2x2に並べた1枚の画像で学習させればよい
読み直したら、さらにこういう方法もあるですね。
CNNだから、画像間の関連は捨てられないものと思っていたのですが、
同じ形式で4枚並べるのはアリなんですね。
有効な解決策が2つ(以上)あるところが、NN的というか、おもしろいですね。 ごめんなさい、
アンカー「>>130」と書いたのは間違いで、正しくは「>>132」でした。 ■ このスレッドは過去ログ倉庫に格納されています