【統計分析】機械学習・データマイニング23
■ このスレッドは過去ログ倉庫に格納されています
!extend:on:vvvvvv:1000:512
機械学習とデータマイニングについて語れ若人
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング22
https://mevius.5ch.net/test/read.cgi/tech/1547338417/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:----: EXT was configured keras よく分かんないけど出来上がる
pytorch 自分で書けすぎて何やって良いか分からない 別にどれも結局コピペして適当なとこ変えるだけだと思うが。 >>731
日本企業はまだディープラーニングとりあえず成果出しましたレベルなんじゃないか
専門でやってきたとこは違うだろうけど ディープラーニングでなければならないタスクを抱えている企業は少ないのでは? まぁ手段の一つにすぎないよ。俺のとこは年に二つくらい機械学習案件はない 日本がAIで勝つために「知の爆縮」を起こす
── 技術は成熟し、コモディティ化する
https://ledge.ai/connectome-design/
なにを言っているのか、さっぱりわからん。
「一気に事業をグロースさせる」とか
「技術はコモディティ化している」とか
「知の爆縮を起こす」とか
なんかそれっぽい言葉をちりばめると
お金が集まる分野なんだろうってことだけはわかる。 佐藤 聡(さとう あきら)だって(笑)
無能そう
なにも作ったことなさそう
論文もなさそう こういうカスみたいな記事が増えてるってのはブーム終焉かもな。 >>741
ざっと読んだけど、何言ってるか分からないのは単に読解力がないだけだろう
ただし大したことは書いてないので別に理解できなくても問題はない >>731
ネットワーク設計とはどういうことを指摘しているのですか? >>745
文字通りニューラルネットワークの設計
新しい課題に適用する場合やチューニングをする際に必要となる
新しい課題では、似たような課題から似たようなニューラルネットワークを組むことから始める
勾配消失してると感じたらバイパスさせたり、過学習に陥りやすいときに適当にdropout挟んだりと、慣れてくるとどこに何をどこに配置すると性能が向上するのかが見えてくる
また上手く行っていたモデルが、入力データが異なると学習がうまくできないことがある
そこでチューニングという作業が発生する
チューニングは前処理を変えたりモデルを変えたりする
モデルを変えたい場合、例えばCNNの畳み込み層とプーリング層を一段深くしてみたり、全結合のニューロン増やしたり、活性化関数をReLUからtanhにしたり、あるいはオプティマイザをadamからadagradに変更したりする
恐ろしいことに、これだけで性能が恐ろしく向上する事が多々あり、理由が分かることのが少ない
このチューニングも含めたビジネスロジックに組み込むための(ニューラル)ネットワークの最終形態を作ることを設計と言っている nnablaのベンチマークが出てこない
pytorchやtensorflowに比べて速いんかどうかなんだけど >>734
chainerをやろうとしましたけど、
多変量LSTMのサンプルをいろいろ探しても
いいのが見つかっていません。
どこかアホにも分かるようなサイト教えて下さい! 以下のブログを読めば
フレーム問題は解決済みと言えますか?
フレーム問題は解決済み −フレーム問題に見る、AI史の闇ー
https://robomind.co.jp/frameproblem/ フレーム問題は思考実験みたいなもん
全然気にしなくて良い まあそもそも人間もフレーム問題間違ってるやつばっかだし。 pandasのデータフレームにはベクトルを入れられるの? そうなんだ
埋め込みベクトルは各々の要素を次元別のカラムに展開するのが定石なの? 時間という概念が理解できてれば、社会の枠組みに囚われた者たちがどれだけ不自由を強いられてるか理解できるだろう。 >>755
何がやりたいかにもよるけど、別々に入れておくと
統計量出したりリサンプリングしたりplotしたりそのままscikit-learnの入力にできたりとメリット多い よくユーチューブとかでdqnを使った強化学習のシュミレーションとかやってるけど
それらのdqnってディープラーニングは使ってるの?
lstm使ってるだけだとディープラーニングとは言わないよね? >>762
2層のニューラルネットワークでもディープラーニングと言えるの? >>764
二層だけでdlなんて言うアホおらん
そんな厳密に定義求めても仕方ない 2層でニューラルネットワークと言ってた頃はあったですよ >>768
「は?」とか言うくらいならちゃんと間違い指摘してあげて バックプロパゲーションで詰んだ
順伝播はほほーんってなったけど数学分からん俺にはハードルゲロ高い ニューラルネットワークとディープラーニングは根本的に学習のさせ方が違うと思うだけど >>771
根本的に理解してないか大きな勘違いをしてるぞ
ディープラーニングはニューラルネットワークの一種 >>767
ニューラルネットワークは何層でも構わない
以下は一層のニューラルネットワークの例
Input ―> (neuron|activation) ―> Output
ディープラーニングは三層以上のニューラルネットワークと言われている ディープラーニングって単にニューラルネットワークの中間層を増やすだけなんか? 層を増やすだけなら
なんでジェフリーヒントンがディープラーニング発見するまでに時間かかったんや? >>774
中間層を増やすだけでも
それを上手く学習される技術がわからなかった
それを解決できた >>776
自分で少ない層のニューラルネットワークを作って
単純に中間層を増やして動かしてみたら良いよ ディープラーニングの中間層を大脳のようにランダムに配置したり
伝播をカオス化させたりするのはうまくいかないんでしょうか
新しいものが生まれそうな気がするんですが
そういう研究はあると思うのにネットで検索してもでてこない fasttextを使ってみて驚いた
標準ライブラリだけでこの速度と精度を実現してるの?? >>780
今のところ一番近いキーワードはベイジアンネットワークかな
一般的には神経科学を計算機で実現する計算神経科学と呼ばれる分野
バックプロパゲーションは脳内では起きていないと言われていて、今のニューラルネットワークはヒトの脳とはどこか違うらしい >>780
今月の頭にFacebookが公開したrandomly wired neural networksはどう? >>782
昨年発見されて話題になったのは違うの?
人間の脳の解明には
少なくともあと100年
かかると言われてる。
それまで俺は生きていないので
困ってるところ。 脳の解析は必ずしも必要ではない
例えば空を飛ぶのに鳥の羽根を模倣する必要はない。参考にはしてもいいけどね
そういう意味では脳の解析は100年後になるぐらい、どうでもいいことだとは思う 人間はミスが多い
錯覚も多い
勘違いも多い
思い込みで暴走しまくる
人間と同じもの人間の延長で造っても仕方ない
人間を模倣するべきではない ニューラルネットワーク界隈も元々は人間の脳を再現することを目的としていて
どれだけ実用性があるモデルでも学会では脳の機構とはかけ離れているというだけで拒絶されていたが
今やニューラルネットワークは脳を再現することを目的とするものではなくなっている ディープラーニングは層が何層にもなってて深いニューラルネットってことでしょ?
全く知らんけどたぶん歴史的に一層か二層の浅いニューラルネットやってた時期があってそれに比べて深いからディープラーニングって言われるようになったんじゃない? 二層先に繋げたり二層戻すことを
追加すると変更前のデータを参照できると思うのですが
そういうのはありますか? >>793
全く知らないなら書き込まなくてもいいですよカスが >>791
重みの数が一層だから一層ですよ
>>782
どの辺りが適当? >>796
>重みの数が一層だから一層ですよ
なんだやったことすらもない人かもう絡んでこないでね ニューラルネットの層数のカウントで入出力層をどう数えるかなんてカウントする人の定義次第であって決まった方法などないからどうでもいい >>798
定義はあるよ、間違えている記事が多いだけ
入力層を数えない=層と層の間の重みの段数だよ
そうでないとResNet等の層数が変わってくる
ちなみに(neuron|activation)は一つの○ね
書き方まずかったかも知れんね
activationを別の層と考える人もいるようだけど、それはkerasのせいかな すれ違いの理由が分かった
書き方に問題があった
Input layer ―- Hidden layer ―- Output layer
なら二層
書きたかったのは
x ―-(wx|activation) ―- y
ということなんだ
上の書き方なら
Input layer ―- Output layer
に相当する >>802
割と煽った書き方しちゃったけど結構紳士かつ真摯なレスする人なんだね…
新たに書いてくれたような内容なら同意。きつく言っちゃってゴメンね 数学的な知識が乏しい自分がやる事自体間違いなのかもしれないけどみんな数学的な部分も理解してる?
導関数とか勾配とかこんなの分かるとかみんな凄すぎだわ >>804
理解できなくても利用することはできるけど応用がきかないんじゃね? おおよそ高校で習いますやん。理系なら大学1年で格闘してると思うけど。生物や農、薬の人は知らんけどね 数学分からないと言ってる暇があれば勉強すればいいのに
高校3年間の数学ならみっちりやればこのGWの10日間で終えられるだろう >>809
いやほんとそんなレベルだと思う
みんなすげーわ
連休予定ないから勉強する予定
多分中学くらいまで遡る事になるだろうけど…
高卒アホ学校出の俺がやってる事自体知見のある人からすれば迷惑な事なんだろうけどやれるとこまで頑張ってみるわ 人間の脳はどうやってニューラルネットワークから
痛みのクオリアが生まれるのでしょうか? 頭モジャモジャの何とかいうエセ科学者が来てるのか。 >>807
農学は知らんけど、生物は酵素活性の計算とかやるし微分方程式が解ける程度のことはやっているはず。
薬学に至ってはそもそも熱力学やるはずだから偏微分あたりもばりばりやるはず。
まじめに勉強すれば・・・・・だけどw >>813
生物が微分方程式を解くのか、すごいなメモメモ >>817
そら人間かて生物やで
さてはお主シンギュラリティに達したの? 人工知能が生成したデスメタルを毎日24時間配信し続けるYouTubeチャンネル「Dadabots」
https://gigazine.net/news/20190422-ai-generated-death-metal/
デスメタルの楽曲を機械学習させることで、オリジナルのデスメタル曲を作り上げる
ことができるようになった人工知能(AI)の「Dadabots」が、YouTube上で「毎日24時間
デスメタル配信」を行っています。
ジャズや現代アメリカ音楽などの商業音楽を専門とするアメリカマサチューセッツ州の
バークリー音楽大学で出会ったCJ CarrさんとZack Zukowskiさんは、回帰型ニューラル
ネットワーク(RNN)という学習アーキテクチャに基づいて音楽を自動生成する人工知能
「SampleRNN」を改良して、「Dadabots」というデスメタル生成AIを開発。Dadabotsは
学習用に用意したアーティストが作成した楽曲を小さく区間分割し、前の区間から次の
区間を予測して「実際の楽曲の区間」と「Dadabotsが予測・作成した区間」を比較する
ことで自己学習しながら新たなデスメタルの楽曲を生み出してくれるというもの。 俺も数学苦手で高校時代0点を連続で取ったが、
再度勉強してる。この画像の2冊の本で
https://i.imgur.com/3N9mfIl.jpg >>827
どうみても検定料で儲ける気満々でひくわな
逆に検定持ってる方が情弱です!って言っているようなもんだ いまだ毎週のように新しい手法やらアルゴリズムが開発されてるのに検定にどれぐらいの意味があるのだろう 論文読んで楽勝で実装しましたって人見ると絶望する
ちょっとで良いんでその知能分けてください 結構論文見て実装しても論文通りの性能出ないとか言ってる人をよく見るね
githubに公開されたソースをそのまま実行しても論文の通りの出力がされないとかっていうのも見る >>831
あれ、憧れるよね
理解力と実装力の差に絶望する ■ このスレッドは過去ログ倉庫に格納されています