【統計分析】機械学習・データマイニング15 [無断転載禁止]©2ch.net
レス数が1000を超えています。これ以上書き込みはできません。
ディープラーニング用に今から大学で数学覚えるとか今更感ないか?
10年後にはもっと違う事になってるかもしれんゾw
大学の研究室とか関連企業の最先端研究で何やってるかよーく調べて
からインスピレーション感じるやつやっとけばええやろ?
ここまで高卒DQNが持論を振りかざしました。スンマソ( ̄▽ ̄) >>1000
ちょっと無理だな
あれはハーンバナッハの定理とリッツの表現定理とフーリエ利用してる
関数の性質が全然違う >>999
論文を発表したいのに2ちゃんねるでそれを訊くとかどうかしてる
なぜ学会に問い合わせないのか >>5
その方法で証明されてるのか知らないが
その方法だけとは限らないだろ DQNのオレはS字カーブを疾走したいからSigmoidに限るナ(ウソ
証明は分からんがReLUは良さそうだ。良いものは良い。
位相幾何学と組み合わせてまぁ何とかって世界じゃない?
深層レベル絡みの事象なんて証明できるのけってな謎。
学習率を上げたいだけならシミュレータあるやろ。
きっとそこから何か見えてくる!それや!! DNNで任意の関数を表現できるか?だろ
できるだろ
これが理解できないのはセンスないだろ >>12
数学的証明できるかどうかを議論してる。シグモイド関数が十分滑らかならできるが、ReLu関数のような微分
できない関数だと証明できていないようだ。 (≧∇≦)ムネアツ。俺はこれを求めていた!先を越されたぜw
Elastic Weight Consolidation >>13
解の一意性を示すと100万ドルの懸賞金がもらえるぞ >>15
なんで活性化関数の微分可能性と
DNNが任意の関数を表現できる事が関係するのか >>19
数学的に証明できていないといってるだけ、できるかもしれない。 Value iteration networks これもよいな。
chinerでいけるぞ!(以下アンチ禁止) それはただの数値演算上ではただの差分になるだけ
ID:hxsBdP1Hはただのバカだった >>30
自分の知識がないからここでヒントを得ようとしてるんだろうけど無駄だよ >>6
学会に問い合わせてどうするんだよ
全国大会なんてこでもやってるわ
発表の練習とか一人でやるのかよ >>33
1人で練習すれば良いんじゃね?
コメント欲しいならYouTubeに上げるとか
学会が個人でも受け付けてるなら可能だしそうじゃないなら何らかの組織に入るしか手はないだろ
考えるまでもない >>34
ありがとう
その組織が俺にとって放送大学になってる
三年から編入できるかもしれないし >>34
一人で練習する怖さは、デッサンとピアノやってたときに経験してる
間違ってることを一人で正しいと思ってやってたりする
youtubeでそういう文化があるとは思えない… 勉強したいのにたった二年しかいられないで良いのか? >>37
実際にいるのは4年だよ
まあ仕事によって単位取れなくて、延びる可能性はあるけど
大学三年(もしくは二年)編入と修士二年
そこで学んだらあとは自分で出来るとは思ってる 学歴コンプ放送大学ガイジまだいたのかよ
さっさとchainerインスコして寝ろ
起きたら全て終わってるわ >>40
学歴コンプじゃなくて、それしか方法が見つけられなかったんだよ
機械学習については、ある大学の研究室のこれから自然言語処理を勉強する方へのページと、いくつかのブログとサイトを参考にしたら
これから専門書を読む予定 あ? こないだのとはまた違う奴か?
だとしたら放送大学人気やなw 同じ人でしょw 何故か居座って学歴コンプじゃないと力説してる >>42
>>43
同じ人だよ
だから何で学歴コンプレックスになるんだ
そこだけ教えてくれ
俺はただ学問がしたいだけなんだよ >>45
確かに機械学習は独学できるのは分かる
でも論文を発表するのに必要だ 論文を発表するのに学生である必要はない
一般社会人の枠で普通に学会に入って、好きな論文を書いて投稿すれば良いだけだ >>47
そういうことしてる人って修士論文もしくは最低でも卒論書いた人じゃない? >>49
指導員が居るか居ないかの違い
>>50
働いてるからそれしか方法がない なるほど
指導員に論文の指導をしてもらう目的で大学に入るということか
ならこの通り言えば良いのに、勉強したいから大学に入るとか、
それしか方法がないなどと変に言い換えるからみんな誤解する >>46
アホか雑誌、研究会のHP見てみろ。企業の研究者の発表が半分ぐらいある。 >>53
アホはお前の方だろ
俺は企業の研究者じゃない
第一、企業の研究者になるくらいだったら、修士論文は少なくとも書いてるだろ
何を言ってるんだ >>52
最初からそう言ってるぞ
>>55
論破されて、何か言い返さないと思って出た言葉がそれか 教授と仲良くなって、査読だけおねがいすればいーじゃん。
ひまな、名誉教授とか、やってくれる人いるさ。 あ、教授にヒマとか言ってはいかんぞ。。あくまで、感謝、感謝で。 >>57
それは無理だと思うんだよな
そんな人居たらみんな頼んでる… 自分で言うとるやんけ、氏ね
745 名前:デフォルトの名無しさん [sage] :2017/04/11(火) 20:45:23.37 ID:dHHFeYRb
学歴コンプレックスもあるかもしれません
就職時にも少しは理解してもらいましたが…
やっぱり卒業してる人が有利ですね
でも学歴コンプレックスというよりその研究室に入れなかったことが一番です
やっぱり趣味でやるのが一番いいんでしょうか
放送大学に通って(二年か三年編入になります)勉強して機械学習をテーマに卒論を書くのはどうなんでしょうか?
でもその分趣味の時間も減るし、仕事の勉強を優先しないといけないし、迷ってるんです…
果たして放送大学に入ってもそれが出来るのか分からないし
>>742
確かに独立は目指してますが、どうしても機械学習をやりたいってのが目標で大学入ったんです
>>743
それは零ではないと思います
でも権威も必要なときは必要なんだなって就職時に思いました
>>744
日本の大学のレベルの低さは実感はしました
でも個人差もありますね 基本的に頭が悪いんだから研究なんか諦めて2chでも荒らしてろ >>60
お前らが学歴コンプレックスとかうるさいから面倒なので、そういう設定にしました(笑)
すみませんでした 第一学歴コンプレックスなんて下が作るんじゃなくて、上の方が勝手に作ってるだけ クズすぎて草
さっさとchainerインスコして氏ね 一般的には放送大学は良い大学だと思うけど、
機械学習を学びたいのであれば、科目数が少なすぎるためあまり適切ではない。
>>41 の記述から、たぶん小町さんのページを読んだのだと思われるけど、
このページで出てきた本を読んで基礎を学んでから、いきなり大学院に入ることもできるよ。 放送大学は個人独学で学べる程度のことしか学べんです
大学院の足がかりにするのであればいいと思うよ >>65
ありがとう
ただ働いてるので大学院も放送大学にする予定
>>66
放送大学の大学院に行くことを考えてます
現在放送大学と相談してます >>67
なるほど。
余計なお世話かもしれないけど、社会人を受け入れている情報系の大学院もあるから、
いろいろ探してみると良いと思う >>70
ありがとう
とりあえず学士から取って探してみるよ >>64
彼に必要なのはtorchを学ぶ事だと思うんだ。 さくら高火力サーバー
https://www.sakura.ad.jp/koukaryoku/specification/
titanX(pascal)が4本で1時間294円, 1日7,000円
P100が一本で1時間 357円
titanXは一本17万だからなぁ、4ヶ月くらい使うと損
これくらいのサーバーなら会社で用意してるだろうし
正直一般向けにも企業向けにも微妙では それとtitanXのメモリ1GBの差に拘らないなら
1080tiとtitanXは計算速度に差がないし一本9万計算になって
2ヶ月以上使うと損になるので更に微妙 1日7000円って下手な機械学習マンより稼いでるな >>13
数学の世界でも最高級の話題と
数学と無縁の機械学習を一緒にするな 勉強めも
パーセプトロンについて勉強した
ANDとNAND 、OR関数を作成した。
続いて、多層化し、XOR関数を作成した。
パーセプトロンでは、重みとバイアスを
設定する。
単層だと、線形な領域しか表現できないが
多層化することで、非線形な領域も表現できることがわかった。
重みを設定する作業を直接行うのがめんどくさい。
GPUのクラウドサーバーみたいのつくりたい
いくつかのPCにGPU刺さってるんだけど使ってない時は無駄だよね 昔PS3にソフト入れて癌の解析分散処理に協力ってのがあったなぁ
効果なかったのかいつの間にか消えてたが
PS2も一時期軍事利用で大量購入とかニュースあったけど
PS4やスイッチでと思ったけどコスパ悪いか 数拳を極めた私は自由自在に応用が利くのだ
フフ♥♥ >>90
今はBOINCプロジェクトってのがあるね。
https://boinc.berkeley.edu/
募金でリソース運営するより個人PCのアイドル時間を提供してもらう方が効率がいいのだろうか。
それなりに電気代を使うと思うんだけど。 ネコも杓子もテンソルフローで食傷気味なんで、Chainer2を試そうとしたのですが、ググったけど殆ど情報なし
どういうことなの? >>94
すみません、良く意味がわかりません
アホにも分かるように教えて下さい chainerは作者に直接問い合わせると
結構返してくれるぞ
もちろん日本語で アホクサ、そんなんよりまともな仕様書でも公開しろよw
chainer2.0 のユーザって世界中で 10 人もいないのかもな、わりとマジで うん
機械学習は大事なのプログラムじゃないし
スレざっと見ても実際使ってないのがわかる
見るだけ無駄だったスレ P社周辺で政治的な発言が増えてきてお近づきになりたくない感増してきた
ズケズケ物言うのがエンジニアのカルチャーなのかもしれないけど 言わないといつの間にか変な規制されて何もできなくなるじゃん
規制されるのはべらぼうに早いけど、一旦かかった規制をなくすのはほぼ不可能な国だし chainer 2.0 が雑な扱いなら、
シンボル型に馴染まない人は PyTorch に流れるだけだし、既にそうなってる
>>108
Google Trend だと常に "chainer fails" が上位に来るからなw ゼロから作るDeep Learningを読んでみたけど4章以降が難しすぎて理解できない
勉強はここまででやりたいことを実装できれば良いやと思ってTensorFlowに行ったけど、
チュートリアルとコードを読んでも何が書いてあるかさっぱりわからない
いつになったら書けるようになるやら >>113
マジレスするけど、TF の初心者用の MNIST チュートリアルは比較的易しいと思うが
どこら辺りで分からなくなるの?
それから TF のコードは逆に分かりやすいとは言えないので、Keras のコードを読む方が良いかも。
データをロードしてモデル作ってcompile して、そして fit するだけ。モデルを作るのも層を重ねるだけだ。 tfで分からないとか甘えるな
chainerとかいう神の世界を記述してる言語見てみろよw 機械学習で成功してるのってgoogle, facebook, nVidia, IBMくらいじゃね?
他の会社も細かいところで使われてはいるんだろうけど、しょうもない後追いで、大きな成果出してないような
日本は公開されたコード利用して適用しましたって小さな事例しかないのが残念 >>117
もう虚言は飽きたわ、初心者用のドキュメントなんかないし、2.0 のドキュメントにいたっては皆無だし >>118
それって機械学習以外でも当てはまるよね? >>115
時代はTFだ!といつものノリで始めたけどChainerのほうが良いのかな
>>116
Build a Softmax Regression Model以降が意味不明
機械学習が何をしてるかはおぼろげにイメージできるんだが、
それをコードに表せないし、こういうチュートリアルで具体的に説明されても、どうも脳内で繋がらない
そもそも数学と統計の知識の不足を感じるので、
今はcourseraのAndrew先生の講義を見てる
Kerasには辿り着いたので見てみる 機械学習 ─データを読み解くアルゴリズムの技法─
ピーター フラッハ
https://www.amazon.co.jp/dp/4254122187/
↑この本はどうですか? >>118
全部調べた?
〇〇しかないって言ってるけど >>124
機械学習をきちんと始めたいならこの本:
機械学習 ─データを読み解くアルゴリズムの技法─、Peter Flach
http://www.injpok.tokyo/4254122187-machine-larning
原著のAmazonレビューを翻訳している記事があった。 >>122
Build a Softmax Regression Model あたりだと回帰の基礎知識があれば大丈夫だと思うが… >>122
chainer 3日とか、真に受けるなw >>132 俺はこっちの方が欲しいし。
現代日本の政治権力経済権力1979/1
大嶽 秀夫
−
¥ 50,000中古 & 新品(1 出品) >>133
日本の古本屋ぐらい合わせて検索しろよ。情弱。 >>134 それでも安い方だ神田いきゃ10万超えている。 データマイニングのスレでもあるのに、話題が上がらないね
希に話題に上がるデータサイエンティストなんて機械学習よりもデータ掘り能力のほうが重要なのに ビッグデータは死語となり、機械学習が流行ってるのを知らないらしいw 重要か知らないが、機械学習ほど需要がないことは確か DMって言葉としては需要ないよね。
そもそも教師無しは一部除いてDMの手法そのままだし。
もう使う機会はないかな >>135
???
ttps://www.amazon.co.jp/gp/offer-listing/B000J8HH2C/ref=dp_olp_all_mbc?ie=UTF8&condition=all 機械学習は分類先がどんどん増えていく場合に対応できますか?
現在の分類先がA〜Cまで三つあったとして、あるXはAに分類すれば良いけど、
あるYはA〜Cには当て嵌まらず新しい分類先Dに行くような場合です >>143
単純だけど定期的に学習し直すのはダメ? >>146
その発想はありませんでした
それで良いかも知れません
ありがとうございました TF 1.1 出たようね、回りに TF ユーザが本当に増えたわ。
あとグーグルはやはり製品リリースに手慣れてるな、スケジュール通りにまとめてくるわ >>154
github の TF のスター数って5万5千もあるのかよ >>155
1.0から、まだAPIを全部カバーしていない Mono 用の TensorFlowSharp なら既にあるよ Chainerはあの会社単独での開発もう無理だろ
他の会社と組んでpytorchみたいに分岐させるとかしないと先が無くね というか、pytorch があればchainerいらんし >>159 俺はscratchで使えるようになって欲しい。 Scratch には深層学習が似合うけど、TF はちと重いかもな >>162-164
PyTorch は facebook だったか、最近ぐいぐい来てるな というかフレームワーク1つでなぜこんなに揉めるのか
自分が使えさえすればどれでも大差ないだろう TFとpytorchの違いも分からんやつが何を言ってるんだかw どうせ大した違いないんだろ、知らんけど
んなことぬかすんなら、tfで出来なくてpytorchとやらなら出来ることって何だよ、言ってみろや?あ? chainerがあればすべて解決、日本人は国産フレームワークで世界に差をつけよう フレームワークの名を呼べば、なんか意味のあることを言った気がする。ここはチラシの裏。 真面目な質問には一つ二つしか反応しないしな
果たして本当に使っているのやら エミュ使えないゲームでdqnの学習したいけどさすがに実時間は厳しいかな >>171 小泉純一郎の郵政民営化みたいな人来ている。 >>175
基本的な質問すぎて答える気が起きない人が多いのだと思う スレ違いの放送大学君の人生相談には答えるのにな
答える気を起こさせるには面白いキャラ作って煽りながら質問すべきということだな >>172
ほらそうやって逃げる
アーキテクチャとか聞いてないんだな
何が出来て何が出来ないのか、答えてみやがれ
まあ無理だろうけどな >>172
横からだが、それ全然逃げてないと思うよ。多分あなたが分かってないだけ カーネル法ってすごくね。
応用性が非常に高くビックリしてんだが 応用性が高いって言ったのは、以前からある方法だけでなく、最新の手法にもって意味でもね CNNの畳み込み層の学習ってどうやってやってるのかよくわからないんだけど、解説してる書籍・記事があったら教えて >>189
ありがとうございます
時間をかけて読んできます 東大とかどうでもいいから、バークレーとか MIT とかの情報くれよ… >>189
わかりずらい図解乙
リンク先の説明はお勧めしない
根本的なところを理解してないと思われる ちょっと前までITは慶應大学に勢いがあったが
AIブームになって慶應が沈んだよな
慶應は早稲田にも抜かれたような >>192
この記事はNumpyもメモリ配置を気にしてプログラムすると10倍速くなったでバズってるけど
学歴コンプレックスのお前らは、東大という名前だけで拒絶反応w 東大はLISPの竹内郁雄先生の退官記念講演を見に行ったっけな。
何年前だw Windows7 Pro 64bitでtensorflow-gpuインストールしてるんだけど、
GPUはGeforce750ti&Geforce1080tiで、以下のようにインストールして、
1.ディスプレイドライバインストール
2.Visual C++ 2015再頒布可能パッケージインストール
3.CUDA 8.0インストール
4.CUDnn V5.1インストール
5.Anaconda3(python 3.5.2)インストール
6.tensorflow用の環境作成
7.tensorflow環境をあくティベーとしてtensorflow.orgのインストール手順に従いtensorflow-gpuをインストール
pythonを起動して
>>>import tensorflow as tf
ってやっても、プロンプトが帰ってくるだけでCUDAのモジュールがロードされない。
通常は、
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library cublas64_80.dll locally
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library cudnn64_5.dll locally
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library cufft64_80.dll locally
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library nvcuda.dll locally
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library curand64_80.dll locally
て出るはずなんだけど何が原因だかわかりますか?
chainerでtrain_mnist.pyを実行すると、CUDAがないとか言われるからCUDAが見えないんだと思うけどPATHも通ってるし何が悪いのかわからない。。。 chainerなら全て解決するぞ
chainerを使え
chainerは神 WindowsでCUDAが使えると思ってるのかよ
>>200
どうしてもやりたいならデュアルブートにしろ Introduction to Machine Learning With Python: A Guide for Data Scientists
Andreas C. Mueller
https://www.amazon.co.jp/dp/1449369413/
↑この本ってどうですか? ダメ
chainerのチュートリアルに遠く及ばない
chainerのチュートリアルが全てを網羅してる >>200 windowsはやめとけ。せめてmac。 windowsならやはり全知全能の神器chainerを使う他あるまいな・・・ cupyのインストールでログを出してみたらやっぱVC++2015再頒布パッケージが認識されてないっぽい
Running setup.py (path:C:\Users\matsu\AppData\Local\Temp\pip-build-gsirebvl\cupy\setup.py) egg_info for package cupy
Running command python setup.py egg_info
Options: {'annotate': False, 'no_cuda': False, 'linetrace': False, 'profile': False}
Include directories: ['C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v8.0\\include']
Library directories: ['C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v8.0\\bin', 'C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v8.0\\lib\\x64']
Microsoft Visual C++ 14.0 is required. Get it with "Microsoft Visual C++ Build Tools": http://landinghub.visualstudio.com/visual-cpp-build-tools
**************************************************
*** WARNING: Include files not found: ['cublas_v2.h', 'cuda.h', 'cuda_profiler_api.h', 'cuda_runtime.h', 'curand.h']
*** WARNING: Skip installing cuda support
*** WARNING: Check your CFLAGS environment variable
**************************************************
Include directories: ['C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v8.0\\include']
Library directories: ['C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v8.0\\bin', 'C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v8.0\\lib\\x64']
Microsoft Visual C++ 14.0 is required. Get it with "Microsoft Visual C++ Build Tools": http://landinghub.visualstudio.com/visual-cpp-build-tools
**************************************************
*** WARNING: Include files not found: ['cudnn.h']
*** WARNING: Skip installing cudnn support
*** WARNING: Check your CFLAGS environment variable
**************************************************
Include directories: ['C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v8.0\\include']
Library directories: ['C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v8.0\\bin', 'C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v8.0\\lib\\x64']
Microsoft Visual C++ 14.0 is required. Get it with "Microsoft Visual C++ Build Tools": http://landinghub.visualstudio.com/visual-cpp-build-tools
**************************************************
*** WARNING: Include files not あchainerは動いた^^
(e:\Anaconda3.5.2\envs\chainer) 。。。\chainer\mnist>python train_mnist.py -g 0
GPU: 0
# unit: 1000
# Minibatch-size: 100
# epoch: 20
epoch main/loss validation/main/loss main/accuracy validation/main/accuracy elapsed_time
1 0.188109 0.0918764 0.94215 0.9702 69.8412 tensorflowのほうは相変わらず
何が悪いのかさっぱりわからない。。。 14がほしいというえらーなのに。15で、いいんすか? Visual C++ 2015 は、別名、Visual C++ 14.0です >>213
あ、ちょっといまubuntuをデュアルブートで起動できるようにしてて確認できないけど一番新しい奴だと思う1.xx? cudaのバージョン古いとか?グラボとの兼ね合いで
win7の64やけどエラーはないね CUDAのバージョンは問題ないと思う
windowsで動かしたことないからちょっと分からんなあ
面倒じゃなければ自分でtensorflowビルドしてみたらどうだろ >>217,218
あざっす
今ビルドしてみてます^^ chainerの方がtensorflowよりも早いし使いやすいから
chainer覚えたほうがいいぞ
国産フレームだから情報も多いし安心 同じエラーに当たって放置してたんで期待
解決したら原因書いてくれ Anacondaが入れた古いコンパイラの方でコンパイルしてるってことはないの? >>210
ほら見ろ言わんこっちゃない
chainer最強
chainer使え keras触り始めたんだけど、公式のドキュメントでメソッド網羅してないよね?
keras使ってる人たちその辺どうやって調べてんの? >>224
chainer最強
chainer使え tensorflow-gpuはWindowsだとマルチGPUに対応できないんじゃないかな? CUDAはWindowsで使えんと何度言えば....
ChainerやTensorFlowがWindowsで動いてもGPUで計算してない CUDAがWindowsで動かないって本当?
ググッたらたくさん情報出てくるのに? CUDAを舐めるなよ
Linuxパソコンでもインストール難しいのに なんか環境構築で詰まるって人結構見るけど
その程度の人はマジでやるだけ無駄だから辞めたほうがいいと思う
linuxやwinで何台もやったけど、手順書もいらないし、何でそんな詰まるのか逆に聞きたい やめたらお前に優越感を感じさせてくれる存在はいなくなるぞ このスレの住人の大半はディープを知らない使えない機械学習派が多いからGPUは関係ないだろうな で、みなさんはGPUを使って何をやっているんですか?
何かすごいことをしている人は一人でもいるのでしょうか? GTX980と1080ti
MaxwellとPascalのグラボの2枚挿しで詰んでる気がする Winだけど、TensorflowでCUDA使ってるよ。
Ver合わせるのが面倒すぎて、気軽にアップデートできん。 >>234
Linuxはドライバーさえ入れればNVIDIA Dockerとか使えば設定不要なんじゃないの? Tensorflowのビルドがエラーでマックって終わんないからあきらめてUbuntuでやることにした^^ 1080Tiで一台組みたいけど、メモリが思ってたより高いな・・・・ このスレは、無能自慢とchainer信者で出来てるのな みんなFB等に行っちゃったからね
2chには、学歴・職業等を晒せない層だけが残ったんだよ・・・・ FBに投稿する人って結局みんなに見て見て〜したいかまってちゃんってことでいい? Ponanza Chainer準優勝おめでとう
CPU1092コア 128GPU使って
16コアの相手に死闘を展開するとは流石です しかしchainerっていちいち128GPUとか使わないとまともに動かないのかよw
まぁ金持ちなのは認めるがw >>259
おぉ、マジカ!
AIも拡張すればかなり精度高く行けるってことやな。
巨大クラウドでの学習おそるべしw
これで競馬やりたい( ;´Д`) 機材購入前に色々ググって見てるんだけどさ
公式がビルドしたTensorflowで何故かGTX 1080Tiが使えなくて、みんな自前でビルドしたり面倒なことしてんのな
購入を躊躇してしまう・・・・ >>265
元々チェスや将棋には相性が悪いと言われていたのに
DeepMindの物真似をして金と電力を無駄にしたというだけの話。
競馬やるのはいいけど何の方法と相性が良いかよく試行錯誤して方が良いよ >>264
デモ的な意味もあるのでしょう、TF より凄いとか言いたいんじゃないの?
今更無意味だと思うし、結果は裏目だが
>>266
capability が低い GPU はバイナリ配布だと対象外の仕様 >>267
会社のポリシーか良く分からないけど、
繰り返し二番煎じをしては無駄にエネルギーを消費してる印象で残念。 ベンチャーが陥りがちな罠にはまってるだけだろ、良いものを作って見せれば客がついてくるという誤解 ベンチャーは上場か買収されるのがゴールやろ。
ちまちま顧客集めるより技術を尖らせておいた方がええんちゃうか。 ディープラーニングで画像認識する記事を見ると、どの記事も画像サイズを統一していますが
画像サイズがバラバラの場合レイヤーのユニット数が変わってくるため、前回までに学習した重みパラメータが適用出来ないため統一している と考えましたが合っていますか? >>272
尖った技術なんてないじゃん
tensorflowやwatsonに吠えても相手にされてないし dockerが多いの?anacondaでpipだけでインストールが簡単 機学スレ3大ガイジ「PRML日記ガイジ」「chainer連呼ガイジ」あと一つは? >>278
確かにw
>>279
最近おとなしいけど
ポエマーか、数学がーって人たちかな まぁ実際大学基礎レベルの数学も満足に理解してない連中の吹き溜まりだから仕方ない Hands-On Machine Learning with Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems
by Aurelien Geron
https://www.amazon.com/dp/1491962291/
↑この本ってどうですか? >>285
どうってどういう回答を期待してんの?
わかりやすさ?内容の充実感?応用性? >>285
このスレの連中がそんな本読んでると思うか?w >>285
おすすめだよ(読んだとは言っていない) >>294 高木君でも藤原君でも小平君でも佐武君でも。 1080ti Faunder editionてWindows10でNVIDIAドライバーは378.78以降だとTensorflow-gpuがCUDAライブラリをロードしないでしょ。
けどWindows10だと勝手に378.78が入るからCUDAについてる375**のドライバを入れられない。 その点chainerは最新ドライバーでもちゃんと動くから偉いな その点chainerは最新ドライバーでもちゃんと動くから偉いな ああわかってきたかも
1080用のドライバって378.78以降しかないしそれじゃ動かないけど、他の古いGPUのドライバだとなんとか動くけどパフォーマンスが出ないってことだな。 CUDAについてる376.51はテスラ用のやつだから使えなかったw 1080用のドライバって初リリースがLinux用でも2017年2月だから、動いたとか言ってるブログってみんなそれ以前だから1080用のドライバで動いたって記事は無いんじゃないかな? その点chainerは最新ドライバーでもちゃんと動くから偉いな >>295
解析入門 松坂 の粗探しでデビューしたので「松坂君」と命名された 未だに環境構築できない奴いるんだな
漢は黙ってchainerだろ カッコつけてぇ〜windowsにtensorflow入れようとしてる男がいたんですよぉ〜 chainerの環境は簡単にできたけど
斜陽フレームワークのchainerなんか覚えたってしかたないから使いたくないし。。。
まあUbuntuPC立てて実績があるNVIDIAドライバでとりあえず動かして勉強しつつ
Tensorflow-gpuが1080ドライバに対応するのを待つしかないね。。 このスレにいる人は環境構築にのみ関心があるようですが、
環境構築後に実際に利用する人はどれくらいいますか? >>310
女は黙ってKeras
>>309
1080で普通に使えるが
環境も構築できないならやめた方がいい
>>311
0
まともな書き込みないから分かるだろ 1080でも動く(GPUを使っているとは言っていない) すまん。なんか予想してた動きと違ってたから動いてないと思ってたけどどうやら動いてたw
http://www.42ch.net/UploaderSmall/cgi-bin/../source/1494218738.png
デバイスの割り当てを見てみてもGPUに割当たってるしうまくいってるっぽい。
2017-05-08 22:36:49.975341: I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\common_runtime\simple_placer.cc:841] report_uninitialized_variables/boolean_mask/strided_slice_1: (StridedSlice)/job:localhost/replica:0/task:0/gpu:0
report_uninitialized_variables/boolean_mask/strided_slice: (StridedSlice): /job:localhost/replica:0/task:0/gpu:0
2017-05-08 22:36:49.975815: I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\common_runtime\simple_placer.cc:841] report_uninitialized_variables/boolean_mask/strided_slice: (StridedSlice)/job:localhost/replica:0/task:0/gpu:0
report_uninitialized_variables/boolean_mask/Prod: (Prod): /job:localhost/replica:0/task:0/gpu:0
2017-05-08 22:36:49.976304: I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\common_runtime\simple_placer.cc:841] report_uninitialized_variables/boolean_mask/Prod: (Prod)/job:localhost/replica:0/task:0/gpu:0
report_uninitialized_variables/boolean_mask/concat/values_0: (Pack): /job:localhost/replica:0/task:0/gpu:0
2017-05-08 22:36:49.976799: I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\common_runtime\simple_placer.cc:841] report_uninitialized_variables/boolean_mask/concat/values_0: (Pack)/job:localhost/replica:0/task:0/gpu:0
どうも最近リリースされた1.1.0ってCUDAのロード方法が変わったとかあったからそのせいで以前と動きが違ってたのを把握しておらず
動いていないと思っていたっぽい^^;
お騒がせしましたw >>315
このTensorFlow本体って、自前でビルドしたものなんですか? 機械学習はアルゴリズムとしては簡単なほうだからどんどんコーディングする人増えて欲しいな >>309
斜陽フレームワーク chainer w 信者は反論しよう >>316
してないけど自分でしたらもっと早くなるって警告が出る。
ビルドは手順通りにしてもエラーが出るからどうすればいいかもっと調べないと。。 将棋AI戦で準優勝を納めた国産フレームワークのchainerが有能すぎる
tensorflowは捨ててchainerで世界に差をつけよう >>321
なるほど、ありがとうございます
警告はSSE等に関するものでしょうか、それぐらいの警告で済むのなら1080Tiを買ってみます >>327
>警告はSSE等に関するものでしょうか
そんな感じ。
環境変数に
変数名:TF_CPP_MIN_LOG_LEVEL
変数値:2
を追加すると収まる。
あと、PATHに
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0\extras\CUPTI\libx64
を追加しないとTensorBoardが使えないようだ。
ビルドでversion_info.ccがなくてエラーになる件も対応しているっぽいてのがGithubに出てた。
なんかいろいろとボロボロ出てくる >>329
インストールして、コピペして動かすだけで満足するからじゃね
chainerスレだし cuda9すげーなvoltaと組み合わせで9倍速くなるのかよ >>329
暗いと不平を言うよりも、進んで明かりを点けましょう。 tensorflowを捨ててchainer始めたけど捗るわ
試してないやつは一度chainer使ったほうが良い Francois Chollet: @fcholletさんがChainerJPをリツイートしました
意味分からない。最初からKeras使った方が良くない?流石日本人。Chainer好きすぎでしょ。
ChainerJP @ChainerJP
Chainerアドベントカレンダー24日目は、Hiroshibaさんより「javascriptでchainerモデルを利用するためのKeras.js」です!
学習済モデルをkerasのモデルに 変換して、jsで操作!!http://qiita.com/Hiroshiba/items/cb1659a4a8243bc72236 …
Heiga Zen? @heiga_zen 2016年12月24日
返信先: @fcholletさん
日本語のドキュメントが充実してて、開発者と日本語でやりとりできるから?
Denny Britz? @dennybritz 2016年12月25日
ドキュメントの問題だけではなくて、日本語サポートコミュニティがないと日本人はそのソフトを使わない。
hardmaru? @hardmaru 2016年12月30日
https://pbs.twimg.com/media/C04jZ-hUcAE04m2.jpg
日本人のchainer好きに反論する外国人の日本語が完璧すぎて日本人は彼らに永遠に勝てないと思った。 >>342
俺 chainer 信者が心底不思議だったのだけど、日本人同士で群れたいってことなのか…
"日本語サポートコミュニティがないと日本人はそのソフトを使わない。"
別にchainer じゃなくても何でも良くて、要は村社会がないと生きていけない古い日本人なんだな 日本語ドキュメントならKerasの方が充実してるしなw 今時はKerasを使ってる人が多いだろ
自分もchainer2の情報のなさに呆れて、Kerasに絞った toyotaはchainerを使うとかいうニュースあったよね >>349
トヨタはデンソー他出入り業者全部捨ててnvidiaのフレームワークに完全移行だよ 適当に作った奴にmnistのデータを食わすとちゃんと学習するけど自前で用意したデータだと全く学習しない >>356
例えばランダムなものを学習してもランダムにしかならない
何かパターンがあれば学習できるかもしれないけど >>356
手っ取り早く自前で用意できるデータって為替か株しかないようなものだから、きっとあんたが用意したのもそこらへんでしょ?
そこらへんはみんな試行錯誤してやってるけど全然うまく行かねえんだよ・・・・ >>356
どんなデータをどの位の数、用意したの? Chainer が凄いのは分かったから、専用スレ立ててそっちで称賛してくれないかな… >>356
ノイズになる要素を事前処理で省く、学習データ数を水増しする、あとパラメータの調整かな
どんなデータを食わせてるの知らんけど 少なくとも2冊は出てるよ。買うほどのものかは知らん Tensorflowで学ぶディープラーニング入門買った jupyterって使いにくいよね
すぐかたまってシャットダウンしないと使えないし横でコマンドラインから実行させようとすると
jupyterがCUDAを掴んでるからコマンドラインでエラーが出るし チュートリアルを作るには便利だが、
まぁあまり使いやすくはないかな NVIDIA、Voltaアーキテクチャ採用5,120 CUDAコア/210億トランジスタの新GPU「Tesla V100」
http://pc.watch.impress.co.jp/docs/news/1058966.html
〜Tensor Core搭載で深層学習能力は120TFLOPS
また、深層学習向けサーバー「DGX-1」をTesla V100に置き換えたバージョン(価格は149,000ドル)、
DGX-1をスケールダウンした「DGX Station」(69,000ドル)、そして8基のTesla V100を搭載し、クラウドのサーバーとして利用できる「HGX-1」の3製品の提供開始を発表した。 >>373
お前の環境と使い方が悪いだけじゃね
まず固まることないぞ
視覚化して試行錯誤するには必須
長時間流すなら.py
ローカルにライブラリ入れて、コピペNNプログラマーには使えないかもだが >>367 早く誰か訳さないかな。菅野良二に頼んでみるか? >>378
Learning Tensorflow: A Guide to Building Deep Learning Systems - 2017/7/25
https://www.amazon.co.jp/dp/1491978511
これの日本語版が今あるならそれで入門するのもいいけど、
作者以外が書いた2ヶ月以上先の入門本の翻訳が要るの?
機械学習の活用法は「機械学習プロフェッショナルシリーズ」を読めばいい。
機械学習プロフェッショナルシリーズ
http://www.kspub.co.jp/book/series/S043.html 環境に関する糞レスばっかなんだけど
本当に、やってるやついないの? >>386
自分が出来ないから他人もやってないと思いたいんだな >>377
rodeo って Rstudio みたいに思ってたけど、jupyter みたくブラウザからでも利用できるの? プログラムの知識や経験がない人が
はじめて機械学習を学ぶのに最適な書籍を教えて下さい。 >>386
twitterやkaggleや日本コンペ見る限り
日本人はやってる奴相当いないよ
メディアがAIだ、人工知能だ!って騒ぎすぎてまたかって感じでスルーされてる技術 仕事でやってることを迂闊に語れないというだけじゃないの
日本の企業はオープンと真逆だから
うちの部署はGPU の予算とか相当使ってるよ 機械学習の本に載っているような一般的な話題すらないですよね。
ひたすらインストールとか環境の話ばかり。 >>394
じゃあ話題を
文字認識の前処理
文字の切出しはどうしたら良い >>394
自分から話題をふればいいじゃん、分類問題くらいなら皆もやってるだろう 文字認識をストロークのベクトルでやりたいんですが特徴抽出はどうやればいいんですか? 話題って言えば、tf.contrib.kerasの使い方がリファレンスを読んだだけじゃ全く分からん件について誰か記事を書いてほしいな >>398
そのうち公式ドキュメントで補完されるのじゃないかな、TFLeran みたく >>398
え、それ無視して普通にkerasインストールしたけど
勝手にkerasとのブリッジ機能かなんかだと思ってたw >>400
元の Kerasが tf.contrib.kerasにfork された from tensorflow.contrib.keras.python.keras.datasets import mnist
from tensorflow.contrib.keras.python.keras.models import Sequential
from tensorflow.contrib.keras.python.keras.layers import Dense
こんなのめんどくさいじゃんw >>390
ファンダメンタルズはシステムトレードでは活用しにくい。
システムトレードの本と一緒に紹介するならこちらの本だろう。
経済・ファイナンスデータの計量時系列分析
https://www.amazon.co.jp/dp/4254127928
それとAmazonはdp/ISBNだけで本を指定できるから
Amazonリンクを貼る時は後ろのリファラは消して欲しい。 プロフェッショナルシリーズはコード書いてないけど『深層学習』はDNNで一番の良書
https://www.amazon.co.jp/gp/aw/d/4061529021/ref=mp_s_a_1_7?__mk_ja_JP=%E3%82%AB%E3%82%BF%E3%82%AB%E3%83%8A&qid=1494709821&sr=8-7&pi=AC_SX236_SY340_FMwebp_QL65&keywords=%E6%B7%B1%E5%B1%A4+%E5%AD%A6%E7%BF%92+amazon このスレは数学できない連中のたまり場だから実質文系だよ chinerなら豊富なサンプルで簡単なプログラミングが出来れば誰でもできるよ
chainerを今すぐ始めてみよう >>408
意味分からん、本の使い方おかしいだろ
実装例なんてチュートリアル読んどきゃええやん >>409
「深層 学習 amazon」で検索した携帯用ページだろうけど、
下記URLでも同じ内容だからリファラ以降は消して欲しい。
https://www.amazon.co.jp/gp/aw/d/4061529021
同じ本のPC用ページの方が情報量が多いからこちらを見よう。
深層学習 (機械学習プロフェッショナルシリーズ) 単行本 - 2015/4/8
https://www.amazon.co.jp/dp/4061529021
深層学習 (機械学習プロフェッショナルシリーズ) Kindle版
https://www.amazon.co.jp/dp/B018K6C99A >>415
その本はどこがいいんですか?
薄い本ですよね? 統計的学習の基礎 ―データマイニング・推論・予測―
パターン認識と機械学習
この二冊ちゃんと読めばいいと思うよ。 結局、Tensorflow keras chainerの3強だと思うけど、みんなはどれ使ってるの?chainerを貶めるとかは不毛なので、使ってるライブラリと理由を教えてくれ Tensorflow
理由:Kerasが使いやすいから。 >>417
最終的にはその2冊だろうけど内容が難しいよ。
先に数学力を要求しない本を読むのはどうだろう。
機械学習 ─データを読み解くアルゴリズムの技法─ - 2017/4/10
https://www.amazon.co.jp/dp/4254122187
パターン認識と機械学習 上 - 2012/4/5
https://www.amazon.co.jp/dp/4621061224
パターン認識と機械学習 下 (ベイズ理論による統計的予測) - 2012/2/29
https://www.amazon.co.jp/dp/4621061240
統計的学習の基礎 ―データマイニング・推論・予測― - 2014/6/25
https://www.amazon.co.jp/dp/432012362X
機械学習をきちんと始めたいならこの本:
機械学習 ─データを読み解くアルゴリズムの技法─、Peter Flach
http://www.injpok.tokyo/4254122187-machine-larning
世界的にも売れている機械学習の良書:
パターン認識と機械学習、Christopher M. Bishop
http://www.injpok.tokyo/4621061224-pattern-recognition
機械学習を数学的、統計学的に説明した大著:
統計的学習の基礎 ―データマイニング・推論・予測―、Trevor Hastie、Robert Tibshirani、Jerome
http://www.injpok.tokyo/432012362x-statistical-learning >>418
まず前提がおかしい。google トレンドでも githubでも stackoverflow を見ても、
chainer を3強に入れる理由なんか何一つない。
https://trends.google.co.jp/trends/explore?cat=5&q=tensorflow,keras,chainer chiner信者がchinerの格を上げたいだけだろw >>423
あまり一度にたくさん本を提示すると混乱するからやめれ >>423
機械学習に数学はいらないよ
だから機械学習を数学的に扱った本など存在しない >>431
行列の計算とチェインルールくらいですかね? ライブラリを使うだけなら数学らしい数学なんかいらんし
ビショップ読むだけなら確率分布をくどくどと説明してくれてるじゃんw Pattern Theory: The Stochastic Analysis of Real-World Signals (Applying Mathematics)
by David Mumford et al.
https://www.amazon.com/dp/1568815794
フィールズ賞受賞者の書いた↑の本が全くこのスレでは話題になりませんね。 >>433
最適化の知識くらいあったほうがいいと思う どっちにしろAIが普及したら感性の時代、芸術全盛期になるんだから数学なんぞどうでもいい
人間は人間にしか出来ないことをやるのだ
機械学習やらAI開発は理系の天才どもに任せときな、まあこいつらも洋梨になる運命だがな おーい chainerの人 これ教えて下され。
何回やってもerror
import numpy as np
import chainer
from chainer import Variable
x = Variable(np.array([-1], dtype=np.float32))
F.sin(x).data
---------------------------------------------------------------------------
AttributeError Traceback (most recent call last)
<ipython-input-16-7e3f949f0688> in <module>()
----> 1 F.sin(x).data
AttributeError: type object 'Function' has no attribute 'sin' chainerは神の言語だ、それが読めないということはお前の気がまだ神の力を宿していないということだ、もっと修行しろよ 数学の知識がなくても適当に出来合いの関数を組み合わせてネットワークを作って学習させることもできるけど、
どんなデータを用意するかとか前処理をどうやってするかとかデータをどんなふうに観測させるかとか
ネットワークをどんなふうに作るとかってのは数学的根拠が必要になってくるはずですよね chainerならそれすら不要なんだよなぁ
右手の先を捻るだけで無限に思いのままのデータが創造される
神の言語たるに相応しい それは簡単な問題は簡単に解決できるっていうレベルのことでしょうね まあ数学は必要だと思ったときに勉強したらいいがな。基本は専門家か知識あるやつに聞けば十分。
要らんとは言わないが時間掛けられないしな
とは言え多少の素養がほしくて>>417の前者は読んでみた。なかなかためになった。 ほんとなんも知識いらないよ
ただ画像以外を扱おうとすると用意されてる畳み込み層だけじゃ不十分だろうから(それとももしかしたら俺が知らないだけでカスタマイズできるのかな!?)、限界はすぐ来るかもしらん >>446
そんなんコピペエンジニアでもできるから
ぶっちゃけ誰でもできるよ
高等数学はいらない、論理的ではないと駄目ってくらい
それより手法調べて実装できる方が大事
もちろん新規研究開発では高等数学ないと無理だろうけど データ弄ってる場合じゃねえwww
世界初の超大規模サイバー攻撃でRISSの需要うなぎ登りじゃねえかwww
秋の試験に向けて準備しなきゃwwwこっちが金になるw 入門書ばっかが大量に出回ってきたけどさ
これから本を出す人が居たら、「Tensor Flow本体のコードを読み解く」系の本を出してほしいな TensorFlowは間にスペースいらない
それからバカ丁寧なチュートリアルが多数用意されてるから読み解くまでもない 【悲報】Googleエンジニア「日本人は海外の発明を無視し、メイドインジャパンとしてパクりを展開する」
http://blog.livedoor.jp/itsoku/archives/51289242.html
Keras開発者ブチギレw >>458
マジじゃねぇかよ www シャレになってないな >>457
使い方じゃなくて実装について知りたいんじゃね >>460
あっ、その通りですね。早とちりでした、すいません kerasの人怪しい英語でも使い方教えてくれたし親切だけどな
チェイなんとかってライブラリ界隈は乾いた冷たい嘲笑しか返って来ないから好きじゃない このスレを見たら、日本の技術レベルの高さに茫然だろうなww ひょっとして Keras 日本語ドキュメントは本人が作ったんかな…
>>464
チェイなんとかは意識高い系だから Francois、こんなとこに書き込む暇あったら
kerasアップデートしろよw KerasってTorchのパクリだったのによくこんなこと書けるな chainerが市場を切り拓いた
古参はchainer、新規はkeras
どっちが優れてるか分かるな? Chainerは後発の割に設計がクソだし救いようがない
何で体力の無いベンチャーがクソフレームワークにリソース割いてるのか謎だわ
勝負するべき場所を綺麗に間違えてるようにしか見えない 真に神たる者のみが理解し使用することを許された聖なる言語、それがchainerである。 >>471
鎖国とは上手いこと言うな
鎖国しないと研究者とかのレベルの低さがバレて権威が保てないのだろうな >>470
猿真似しか出来ないからだろう
後追いしては自分のほうが優れてるアピールを繰り返す >>470
当初はそんなにフレームワークがなかったから
自分たちで作ったんだろう
ついでに公開した
で今に至る まぁかばうわけじゃないが、ろくにドキュメントがないのも社内ツールだったからだろう 経緯はともかく、今となってはTFとkerasを使っておけば無問題。
chainer廚は無視すればいい 日本語ドキュメントを用意するくらいだから、嫌いなわけないだろw >>480
日本の文化好きだけどITギークの陰湿さ嫌いだって
いつも言ってるよ >>481
日本人の陰湿さは世界中に嫌われてるから、それは仕方ない tensorflow+kerasは時代遅れ
これからはchainerやpytorchの時代 >>484
現実は厳しいよ、まだ Beta の pytorch にまで chainer は抜かれちまった
https://trends.google.co.jp/trends/explore?cat=5&date=today%2012-m&q=chainer,pytorch fcholletのchainer批判にはだいぶ私怨が入ってると思うんだよな
beam2dとなんか確執があったんじゃなかったっけ
彼は「日本製クローン」を叩いているけど、difine by runの潮流はchainerからはじまったものであって、その時点で彼は歴史的経緯を無視しており彼のchainer批判に正当性はそんなにないよ
ところでfcholletにpytorchの躍進についてどう思ってるのか聞いてみたいな
あれはchainerからforkされたものだが chainerは日本の最先端技術集団が作ったものだし、特に海外と比較して遅れてるわけではない
nVidiaやIntelとも提携してるし伸びしろはまだ十分ある
別に好きなフレームワーク使えばいいと思うが
批判だけするならお前ら自分で作ってみろよ
単純な畳み込みすらCで書けないような雑魚は黙ってろ ああ、なんかひっかかると思ってたけど言いたいこと言ってくれた感じする watson conversation、なにこれwww
昔っぽいwww で世界中で使われているのでしょうか?
自分らだけで凄い凄いって言っても駄目ですよ。 逆になんでそんなにChainerを憎んでるんだよ? こういう言い方が適当かわからないけど「PFNの自尊心の高さ」的なものが鼻につくんじゃない?
劣等感を刺激されるとかで。 清水亮参戦w
kerasの作者François Cholletはもっと歴史を勉強すべき。国や民族単位で批判することの愚かさを知れ
http://d.hatena.ne.jp/shi3z/touch/20170517/1494977315 豚は電通大でしょ?
Fran?ois Chollettってどこ大? Aさん: Googleでdeep learning担当
Bさん: 2chの機械学習スレで足の引っ張り合い
どちらが優秀でしょうか 学位無いのにGoogleに入れるなんて野良プログラマの希望じゃん >>510 イオヌッツは高卒でgoogleに招聘されたが固辞した。 結局このスレってライブラリ関連でアフィが煽ってまとめてただけでしょ?
まぁ、素人が他に書ける内容ないかw
そもそもマトモに機械学習やってる奴いなそう せいぜいCでニューラルネット書いたことある程度のレベルの俺ですらこの中では上位な気がする >>516
意外と誰も書いてない気がするんだけど、プーリング層の逆伝播ってどうやってんの? >>517
maxpoolingの場合は各windowについて最大値を取ったニューロンのindexを保持しておいて
そこにgradを足し込めば良い >>514
お前はどのくらい凄いんだよ?日本語下手だし学びなさそうだが どっかのスレからコピペ
339 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2017/05/17(水) 23:43:05.73
Proactive protection against the WannaCry ransomware
http://weblog.av-comparatives.org/proactive-protection-wannacry-ransomware/
Protected
Adaware, Avast, AVG, Avira, Bitdefender, BullGuard, CrowdStrike, Emsisoft, eScan, F-Secure, Kaspersky, Panda, Seqrite, Tencent, Symantec, TrendMicro, Vipre
Not protected
ESET, Fortinet, McAfee, MSE
WannaCryを防げなかったへぼソフトはこれだ fortieとmse、しょぼ
fortieってdellだっけ? 超点数無限大の白パズル的なものやらせて地図作ってるよ
なかなか100点満点ならんね
超点数が多すぎるんかな
ピースが6000万程あるんで手作業で確認したくないんだよなあ いろいろ調べたらKerasでええやんという結論に達した いろいろ調べたらchainerでええやんという結論に達した いろいろ調べたらTensorflowでええやんという結論に達した 俺は為替やら株価指数やらを掘りまくって、掘るのは無意味だと思って気づいて終わり >>476
当時から劣化版Theano以下で
PyCuda依存とかあり得ない仕様だったよ
https://twitter.com/unnonouno/status/667536503925374976
こんなツイートがあるけれど、普通は最初に触ってダメならその印象はずっと続くのに
なんでアルファ版の段階でリリースしたのか
それだけ自分たちのブランドに自信があるのだろうけれど
実際の実力と彼らの認識に乖離がある気がする ついでに書いとくけど
Numpyのしょーもないバグを「Numpyの闇」みたいにドヤ顔で論うのはどうかと思ったわ
小物感半端無いし、お前ら全部一から作ればいいのに何でやらないんですかね はいはい
自分でライブラリ書いてないのに上から目線でドヤ顔批判するのも小物感半端ない
お前が全部一から作ればいいのに何でやらないんですかね >>535
ソフトウェアに対して敬意とかが皆無で驚いたって話だよ
普通の神経の人間だったらわざわざ資料にして発表したりしないし
少なくても敬意があるなら「闇」なんて言葉は使わない
社内ならともかくこんな資料が表に出てきちゃう時点で色々と察するものがある 英語できないとどうしようもないな
日本の書籍もうんこみたいに高いし
英語できれば最新の書籍もニュースも動画も質がいいのが安く手に入るのに >>540
気持ち悪いな確かに。
Chainarは、きっとバグひとつない素晴らしいライブラリなんだろうな。 >>541
英語はしんどいけど、気づいてるように得られるものは大きい。
技術書は慣れれば結構読めるようになるじゃないかな。 すんません、ド素人なんですが、なんで入力データってCSVが多いんですか?
ビッグデータとかいってるくせに >>546
ビッグデータだとcsvではいけないと言う理由がよくわからない 「周りの人が皆、理性を失って浮かれている時に冷静でいられるなら、すべてはあなたのものだ。」 >>551
いい言葉だね,ジョージソロス?ジムロジャーズ? 英語の書籍って、ある程度自分がわかる分野のなら読めるけどさあ
新規で勉強しようと思ってる分野のを読むには、かなり英語ができないときついぜ・・・・ 自分にとって新規の分野だと日本語の専門書でもしんどいしね。
英語が出来るかはあまり関係ないな。 「代数幾何と学習理論(渡辺 澄夫)」を読んだ人いますか?読む価値ありますか?
代数幾何や学習理論に関連する数学的な概念を,できるだけ具体的に説明し,
代数幾何における基礎的な概念が,
超関数論と経験過程を通して学習システムの数理と緊密な繋がりをもつことを明らかにする.
らしいです。 森北出版の「パソコンによるカルマン・ニューロコンピューティング」お勧め
嘘だけど >>559
機械学習に数学はいらないが、このスレのスローガンだぞ
読んだ奴なんているわけないし、読んで理解できる奴なんてもっといない >>562
>機械学習に数学はいらないが、このスレのスローガンだぞ
どうしてそういう流れになったの?
線形代数くらいは分かってないと、流石に厳しいと思うんだが… そのうちパラメーター適当にいじれば
勝手にやってくれるすごいものがでてきそう
つまり数学なんていらない 軍事利用や産業の国際競争を考えると、ライブラリ作れる人が少しは国内にいた方がいいんじゃないの。 ここの住人がJubatusをどう思っているのか知りたいな 数学分かってなくてツールを使える奴はゴマンといる。
つまりそういうことだ。 「人生というものは所詮どちらに転んでも大した違いはない。ならば闘って、自分の目指すこと、信じることを貫き通せばいいのだ。闘いであるからには、いつか必ず敗れるときが来る。その時は、自然に淘汰されるに任せよう」 MicrosoftはChainer推しらしいな。だからってChainer連呼厨は調子に乗るなよ。 日本人としてはChainerを推さざるをえない
特段TensorFlowが優れてるわけでもないわけで、ならこの分野での唯一の国産品を応援せずどうするの?って感じ
やっとろうぜ! ほんとフレームワーク論争しかないな
実際にやってる奴おらんやろw
chainerマンセー 次スレはchainerって入れといてくれ
糞スレすぎる tensorflowだけで困らんだろ
わざわざ他のフレームワーク覚える暇あるならarxivウォッチしてるわ >>572
というか、TensorFlowはwindowsで使いにくい。 >>458
国内でも新しいことをやる人は徹底無視されるよ
海外とか別の場所で評価されるようになってから
それまで無視していた人たちがいっせいにパクリはじめる >>501
うん、前言撤回するわw
ここまで並べられるとすげえな DIGITSがあまりこのスレで触れられないのは問題あるから? 清水のツイッターマジギレしてるw
kerasもマジギレ中w 清水のやり方はどうかと思わなくもないが、Kerasの作者がそれ以上におかしい
去年の末にChainerで日本人を煽ってたぐらいだと笑いながら見ていられたが、
今回は全然笑えないこと言ってる ツイッターの方が熱い
kerasが清水の人格否定はじめてるw 誰が言ってるかではなく、内容をみてケチをつけましょう。 >>587
pipでwhlから入れられるから前よりマシ >>594
男は黙ってサッポロビールならぬ男は黙ってchainer kerasの作者は
コンプレックスがあるんだろ
だから突っかかってくる ggrksという声が聞こえたのでググりました
ゴリ押されてるものは微妙なものだったりすることが多いので、自分でも少し調べてみます GTX1060で3GBと6GBあるけど
処理速度どれくらい違うのかね
メモリ重要らしいけど6GBにすると5000円も高くなる 処理内容しだいだろ。
最大3ギガ以内しか使用しないなら変化なしだし。 俺のiPhoneメモリ128GBもあるわーとか言ってる人種かな? >>620
同じチップ名だけど同時に走るスレッド数も違う別モンだから6GB版を買ったほうが良いよ メモリが3分の2に減ったら処理速度50%くらい増えるみたいだな
ゲームじゃ大して変わらないのに3GBから6GBで7000円プラスは痛いなぁ
まあいいや3GB版買おう TFはubuntuだとcpu版でも64bit必須? x 処理速度50%くらい増える
o 処理時間50%くらい増える 禿がNVIDIAの株も買い占めに走っててこの分野の上流を日本企業が押さえ始めててワロタw >>630
日本の企業じゃない禿の会社ってのが残念
日本の企業はどうしたんだよほんとに…
頼むぜまじで ソフトバンクやるな
フレームワークも国産Chainerを我々ユーザーが使い後押しすべきではなかろうか 禿の会社が日本企業だと思ってる日本人が多いよな
まじでこれからの日本が心配 >>628
自己フォロー
バイナリーは64bitのみ、32bitはソースからインストール nvidiaがおかしくなったらGPU以外のハードに光が当たってくるな
でもAMDがあるか LINEもNAVERの子会社だと言うことを知らない日本人が多すぎ 薄汚い仕組みを変えたかったら、正義感に縛られて動きを不自由にするな。
善も悪も全部取り込んでしなやかに動け。そうやって蓄えた力でいつか本物の悪を叩けばいい。
<そんなの屁理屈ですよ>
そうかもしれん。だが何もかも一気に変えることなどできやしないんだ。
目指す場所を見つけ傷付きながらでも進むしかない。 >>631
郵政民営化の小泉純一郎みたいなおっさんだな。 >>640
x64にしてインストール完了。疲れた。 あの執着っぷりから判断すると
chainerヘイトレスはkerasの作者が書いた可能性が高いと思う >>654
お、Chainerで心臓に毛が生えた話聞きたい? 「私は持っているテクノロジーのすべて引き換えにしても、ソクラテスとの午後のひとときを選ぶね。」 >>652
じゃソフトバンクがchainerを採用しなきゃ。 深層学習による自然言語処理 (機械学習プロフェッショナルシリーズ)
の感想を求む。 基礎から解説してるからいいと思うぞ
まぁ、初心者が実装ができるまでのような本ではないけど
お前ら大好きchainrrの開発者が書いてるんだし買えば? >>661
将棋の本だったら保木さんの本も面白かった。只の読み物だけれども、もともとは
化学屋のバックグラウンドを持ちながら、まったく何もないところからボナンザを生み出した
考え方は参考になった。h ttp://amzn.asia/2JdN8Vp >>664
ボナンザとポナンザの違いが判らないとは >>665
簡単でいいので歴史を教えて頂けませんか? >>668
bonanzaは保木氏が作成。
ponanzaは山本が保木氏の発表やコードを参考に作成。
名前が似ているのは元祖bonanzaを参考にした故のジョークのような名前付け。 >>664-665
ポナンザ:将棋AI
ボナンザ:イタリア語
以外になにがあるの? >>660
新納先生あたりが「chainerによる自然言語処理」のような本を書いてくれたらな。 >>670
山本氏は保木氏の成果をどの程度参考にしたんだろう?
>>661のサンプル版を軽く目を通した限り、そういう記述が見つからなくて気になった。 月80hrが目安って凄いな。
友人の勤めてる某企業は月40hr超えが続いたら裁量強制解除だってよ。 >>677
俺もchainerのおっさん(やと思うんだが。)に洗脳されてしもたわ。 ビッグデータとか騒いで結局何の成果も出せなかった連中が今は機会学習に飛びついてるけど、結局何の成果も出してないよね。
次どうすんの? Metal for Machine Learning. ML。OpenCL のように、機械学習に使う命令。外部グラフィックス向けも。
開発者向けにUSB-C / Thunderbolt 3 接続、AMDグラフィックカード内蔵の外付けグラフィックボックスを提供。
WWDC2017より
アップルの本気キタコレ! Radeonで機械学習はありえないなー
volta+cuda9で現行の9倍高速化されるのに >>682
windowsはビルゲイズがAI反対だから本気にならない。 株価の動きを掘ってみようかと思ったけど
現実に儲けるにはニュース聞いて判断とか出来なきゃ無理かな…? 感情分析とかなんかそのへんいろいろつかってやってみれば その辺は有象無象の証券会社が組み込んでアルゴリズム取引しているだろ 外付けGPUならゲフォも使えそうな気がするがどうだろ
MacBookproで機械学習にGPU使えるならWindows捨てるわ 外付けGPUケースとか技術的に成熟してないだろ
まだ時期尚早 >>689
アップルが採用したからすぐに成熟するよ そういや大学の研究員で機械学習やってる友人がchainerは2.系になって使いやすくなったって言うてたけど
このスレでは話題なしかw
俺含めてマジで口先だけの機械学習マンしかおらんねんなw Scikit-learnとtensorflowしか使ってないわ。
そもそも画像あまり使わないから、ディープラーニングの出番があまりない。 >>692
chainer 2.0 で検索しても使用記が殆どまったく出てこないのですが何故? 使用記書くためにやってるようなにわかしか使ってないんじゃない?
使用用途は画像以外にもあるだろw
例えばその友人は音声やってる >>697
あんまり煽んなよ?
英検3級の俺が火を吹くぞ?甘くみんなや >>698
知らん、俺はなんちゃって機械学習マンやからなw 日本の技術者はDNNやってる奴なんてほとんどいない
機械学習も認知はされてきたが、ExcelマンやSPSSマンが多いからな
技術後進国日本だから 自分のレベルが低いだけなのに、なぜか日本全体がそうであるかのようにいう。
よくいるよね、こういう奴。 >>701
ここのchainer命のおっさんみたいにDNNでmnistいじってる人間は山ほどおる。 逆伝播降下法について教えてほしんだけどさあ
あるニューロンに2つ以上の信号が逆伝播されてくるときって、単純にその信号を足しちゃって良いもんなの? >>705
数式を見れ
その通りだからわかるだろ? chainerからc++に変換するツールってありませんか? >>706
自明すぎることは書かないのか、色々見ても載ってなさそうだったよ
>>710
せんきゅー!足しちゃうぜ! 清水がネットで袋叩きされてる
なんでも変なライターに噛み付かれたとか
清水より実績も実力もない馬鹿が叩いてて頭くるわ
文系って害悪だな >>712
ちなみの今回の件は清水が勝手に割り込んできて勝手に炎上してるだけ。
相手のライターさんは清水以上の有名人。
清水はもともとクズ扱いされていたけど、今回のダメージは酷いんじゃないかな。 chainer始めようと思うんだけど、公式以外に参考になるサイトない? いつもchainer連呼するのに、chainerの有益サイトくらい貼れや
教えてくださいお願いします >>725
サンプルコードを読むのが一番早いと思うけど。
具体的にはどのへんについて知りたいの。
ニューラルネットそのもの?それともchainer独自の仕様とか? 斎藤の本に、行列の積のことを行列の内積と書いてあるのですが、なぜですか?
NumPyのライブラリの関数名がdotだからですか? ソフトマックス関数の出力の和は1であるから出力を確率と解釈できる。
みたいなことが書かれていることがありますが、
y_1, y_2, …, y_n が出力であるとき、
s = Σ y_i
z_1 := y_1 /s
z_2 := y_2 /s
…
z_n := y_n / s
を新たな出力とすれば、 z_i の和が1になるからいつでも確率として解釈可能です。
なぜ、出力を確率として解釈できるということをソフトマックス関数の特長である
かのような書き方をするのですか? 分類問題では活性化関数にソフトマックス関数を使うとか誰が決めたんですか?
合理的な説明は可能ですか? 斎藤の本
from PIL import Image
def img_show(img):
pil_img = Image.fromarray(np.uint8(img))
pil_img.show()
img = x_train[0]
label = t_train[0]
img = img.reshape(28, 28)
img_show(img)
とMNISTのデータを画像として表示しています。
これを Jupyter Notebook 上に表示させるにはどうすればいいですか? 別にソフトマックス関数がmustと決まってる訳じゃない
結果的に上手くいってるからそれが流行ってるだけ。 統計力学のカロニカルアンサンブルのモデルを考えれば、同じ次元のパラメータを確率的に影響度を分類する手段として、ソフトマックス関数はありかなと思うけどね。 >>735
matplotlibの場合は以下のコマンドをかけば Jupyter notebook 上に画像が表示されるようになります。
%matplotlib inline
PILの場合も同様のやり方はないでしょうか? >>735
強引なやり方として、
def img_show(img):
■■■■pil_img = Image.fromarray(np.uint8(img))
■■■■pil_img.show()
を以下のように変更して、 Jupyter notebook 上に画像を表示させています。
def img_show(img):
■■■■pil_img = Image.fromarray(np.uint8(img))
■■■■pil_img.save('temp.bmp')
■■■■img = imread('temp.bmp')
■■■■plt.imshow(img)
■■■■plt.gray()
■■■■plt.show() 斎藤の本
p.94
def cross_entropy_error(y, t):
■■■■if y.ndim == 1:
■■■■■■■■t = t.reshape(1, t.size)
■■■■■■■■y = y.reshape(1, y.size)
■■■■batch_size = y.shape[0]
■■■■return -np.sum(np.log(y[np.arange(batch_size), t])) / batch_size
これ間違っていますね。
y.ndim == 1 のときに、
cross_entropy_error(np.array([0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1], 3)
みたいな使い方ができないはずです。 cross_entropy_error(np.array([0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1], np.array([3]))
とすればOKですが、不自然です。
(x_train, t_train), (x_test, t_test) = load_mnist(normalize = True, one_hot_label = False)
とすると、
t_train は、 [[3], [1], [4], [1], [5], …] ではなく、 [3, 1, 4, 1, 5, …] みたいなデータになるからです。 それと、p.91では、使っていた delta をp.94では忘れていますね。 だいたいそのインデント代わりの四角なんやねん、クッソ見にくいわそれだけで氏ね つーかこういう系の書籍に誤植があるのなんて珍しくもなんともないだろ、いちいち騒ぐことじゃない 斎藤康毅のディープラーニングの本に意味が分からないコードがありました。
p.111
def f(W):
■■■■return net.loss(x, t)
net は simpleNet というクラスのインスタンスです。
このコードがさっぱり分かりません。
W がなぜ引数にあるのでしょうか? インデントの■はそのまま貼り付けると大変なことになるから俺はいいと思う def softmax(x):
■■■■if x.ndim == 2:
■■■■■■■■x = x.T
■■■■■■■■x = x - np.max(x, axis=0)
■■■■■■■■y = np.exp(x) / np.sum(np.exp(x), axis=0)
■■■■■■■■return y.T
■■■■x = x - np.max(x) # オーバーフロー対策
■■■■return np.exp(x) / np.sum(np.exp(x))
def cross_entropy_error(y, t):
■■■■if y.ndim == 1:
■■■■■■■■t = t.reshape(1, t.size)
■■■■■■■■y = y.reshape(1, y.size)
■■■■■■■■
■■■■# 教師データがone-hot-vectorの場合、正解ラベルのインデックスに変換
■■■■if t.size == y.size:
■■■■■■■■t = t.argmax(axis=1)
■■■■■■■■■■■■
■■■■batch_size = y.shape[0]
■■■■return -np.sum(np.log(y[np.arange(batch_size), t])) / batch_size def numerical_gradient(f, x):
■■■■h = 1e-4 # 0.0001
■■■■grad = np.zeros_like(x)
■■■■
■■■■it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
■■■■while not it.finished:
■■■■■■■■idx = it.multi_index
■■■■■■■■tmp_val = x[idx]
■■■■■■■■x[idx] = float(tmp_val) + h
■■■■■■■■fxh1 = f(x) # f(x+h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val - h
■■■■■■■■fxh2 = f(x) # f(x-h)
■■■■■■■■grad[idx] = (fxh1 - fxh2) / (2*h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val # 値を元に戻す
■■■■■■■■it.iternext()
■■■■■■■■
■■■■return grad class simpleNet:
■■■■def __init__(self):
■■■■■■■■self.W = np.random.randn(2,3) #標準正規分布による 2x3 の行列
■■■■def predict(self, x):
■■■■■■■■return np.dot(x, self.W)
■■■■def loss(self, x, t):
■■■■■■■■z = self.predict(x)
■■■■■■■■y = softmax(z)
■■■■■■■■loss = cross_entropy_error(y, t)
■■■■■■■■return loss x = np.array([0.6, 0.9])
t = np.array([0, 0, 1])
net = simpleNet()
f = lambda w: net.loss(x, t)
dW = numerical_gradient(f, net.W)
print(dW)
★★★★★★★★★★★★★
★↑の f が理解できません。★
★★★★★★★★★★★★★ まず、
仮引数の w が使われていません。
仮引数に渡していない、 net, x, t を使っているところもよくわかりません。
グローバル変数ということでしょうか?
その関数 f を numerical_gradient に渡しています。 スコープについて正確に理解していないからよく理解できないのかもしれません。 numerical_gradient 内のこれ↓ですが、 x はダミーの引数ですね。
fxh1 = f(x) # f(x+h) グローバル変数の net というのは、関数の中で呼び出されている関数の中でも
使えるんですか? あ、できますね↓
glvar = "abc"
def myfunc1():
■■■■myfunc2()
def myfunc2():
■■■■print(glvar)
myfunc1() しかし、この斎藤っていう人、こんあひどいコードをよく恥ずかしげもなく公開できますね。 なんでこの斎藤っていう人の本は高評価なんですか?
こんなひどいコード見たことがないです。正直言って。 意図的に人を混乱に陥れようとしているかのようです。 def f(W):
■■■■return cross_entropy_error(softmax(np.dot(x, W)), t)
↑こう書けば、x, t がグローバル変数ですが、理解可能だったと思います。 もっと先でどうなっているのか知りませんけど、
コードの再利用を絶対しなければならないとかいう強迫観念があるかのようですね。 def numerical_gradient(f, x):
■■■■h = 1e-4 # 0.0001
■■■■grad = np.zeros_like(x)
■■■■
■■■■it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
■■■■while not it.finished:
■■■■■■■■idx = it.multi_index
■■■■■■■■tmp_val = x[idx]
■■■■■■■■x[idx] = float(tmp_val) + h
■■■■■■■■fxh1 = f(x) # f(x+h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val - h
■■■■■■■■fxh2 = f(x) # f(x-h)
■■■■■■■■grad[idx] = (fxh1 - fxh2) / (2*h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val # 値を元に戻す
■■■■■■■■it.iternext()
■■■■■■■■
■■■■return grad ■の交差点に当たる部分が黒っぽく見えるヤツは脳に障害があるから気をつけろ 錯視が見えない人のほうがやばいのではないでしょうか?
↓新井仁之さん作の錯視です。
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
ーナワ夏ーナワ夏ーナワ夏ーナワ夏ーナワ夏
ーナワ夏ーナワ夏ーナワ夏ーナワ夏ーナワ夏
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー ID:yuw+moiO
は問題点とその解決策を知っているのに
それをネタに以前から機械学習スレに寄生して自己アピールしている輩。
本の誤植をする暇あったら自分で話題を振った人工脳、囲碁ソフトを最後まで貫徹しろ こいつ定期的に湧いては毎回捨て台詞残して去ってくガイジよな? chainerのモデルをc言語に変換する機能を早く作ってくれ >>781
chainerのモデルを機械語にへんかんする機能を早く作ってくれ。 Cならtiny-dnnとか使ってみてはどうだろうか ニューラルネットの作図何使って書いてる?
いいのあったら教えてくれ 作図ってなんやねん
ANNなんて作図もクソもないやろ <<-C%%->>
OZHEZ-[[[\\%5%==GLAMB]]]
E=4.323111111111111111111111111111111121
0.4E5Z<<<OBROB%/++11/$end ICONIP
いきたいけど旅費がない
萌芽の発表は7月だし 斎藤康毅のゼロから作るDeep Learningはどの本を元に書いたのでしょうか? http://www2.nhk.or.jp/hensei/program/p.cgi?area=001&date=2017-06-16&ch=21&eid=28823&f=758
今朝ポナンザの山本一成さんがNHKに出てた ↑上のリンクから再放送依頼できるけど
アーカイブに今晩バックナンバー載りそう
http://www.nhk.or.jp/kaisetsu-blog/400/ >>797
これだろ
ttp://nnadl-ja.github.io/nnadl_site_ja/index.html >>801
そうなの?正常な脳にはどう見えるのかな しっかし、アホみたいな本が増えたな。
ニューラルネットワーク=バックプロパゲーションで解かないとダメみたいなアホがホントに増えた まあANN入門するような人には分かりやすくていいんじゃない? ファジーは確率論そのものだからな
完全に吸収されハッテン的に解消された kerasの日本語ドキュメントはバージョン1のまま
WARNING出て気付いた
keras使う人は最初から英語ドキュメント見て書いたほうが良い TF1.2になったけど直接upgradeできないのか 誰も問題視してない気がするんだけど、ReLUレイヤーより前側にあるニューロンって一度変なところにハマったら永遠に学習されないこともあるんじゃないの?
これどうやって解決すりゃいいんだろ >>813 >>818
直接 upgrade できるに決まってるだろ。他のフレームワークの信者かよw >>814
Mac信者とかジョブズ信者は変なところにハマったら永遠に学習されないパティーン 斎藤康毅著『ゼロから作るDeep Learning』
ですが、多変数関数の連鎖律の説明が全くないですね。
いいんですかね?
(5.13)の前ところで、多変数関数の連鎖律を説明する必要があるはずです。 >>824
では、なぜ、1変数関数の微分の説明などを書いているのでしょうか?
1変数関数の微分など高校生なら誰でも知っています。 >>824
では、なぜ行列の積の定義など書いているのでしょうか?
この本では、「内積」などと書いてあって、線形代数の本を1冊も読んだことがないことが明白になっていますが。 書く人の自由。それだけ。
それでは次の話題どうぞ。 斎藤さんが線形代数の本を読んだことがないことは、
p.149の(5.14)を見ても分かります。
Wの成分の添え字の付け方が標準的じゃないです。 >>ID:0IiK5rsw
正直それは本質的にどうでもいい指摘
もう少しメリットをよく考えて指摘してね くやしいのう
立ち読みでよく読まずにネットで本買うからだよ ID:0IiK5rsw
それでは各論まとめて
結論とうぞ 何その本
外部のライブラリに頼らずpythonでゼロから作るとか
頭悪すぎだろワロタわ 斉藤何某の本の荒さがして、彼をこき下ろせればうれしい松坂君(ID:0IiK5rsw) 質問ですが、機械学習にmathematicaは向いていますか? 何をさせたいのかよく分からない。
新手のアスペルガーかな? >>832
屑のようなレビュワーがいるなと思ったら、松坂君だったのね。 機械学習は特別なモノだと思ってたけど、そうでも無かった。
サンプル値→アルゴ→探査→出力 から
サンプル値→学習アルゴ→探査→出力 に変わって程度?
コンピューターである程度予測できると言う事は、人間が数字に頼りすぎてる
だけなんじゃ ないかと思う。 すまん、何言ってるのかわからない。
母国語でいいぞ。 >>843
Speak your mother language. mother languageが不意打ちすぎて吹いたわ >>843が何言ってるのか全く理解出来ない。
学習アルゴって具体的に何? 学習用のデータから、自動でアルゴリズムを作ってるとか思ってる奴ら多そうだな それができれば理想だな。今も決定木は人が読める点で近いように思う。 AIで作曲できるらしいしアルゴリズムも組めるやろ(鼻ほじ)
こんなやつがわんさかいるんだろうな。 AIで作曲ってやってみたいけど
ある程度規則を与えてその中でやらないと難しいのかな?
コード進行とか この先、機械学習は人工知能ではない、という説明が何度なされるのだろうか 機械学習は人工知能への有力視されているアプローチの一つだし細かいことは良いんじゃない? 作曲家のやつが自分の音楽理論のノート書いてるの見たことあるから規則性あるんじゃない? >>864
人工知能の定義ってもともとがあいまいだから時代によってどんどん変わってるよ
誰かが「これが人工知能だ」ってシステムをつくったら周りが否定から入る
2ちゃんねるのお前らみたいなもんだ >>867
ポップスのコード進行なら規則性あるけどメロディーには少し規則性はあるけどほとんど無いと言ってもいい
コード進行の規則性はT(に属する和音一覧)→S(に属する和音一覧)→Dとか大雑把なものだよ
ドミナントモーションとか裏コードも絡むし、自分で作った方が早いレベル Jazzの音楽学校へ行ってたけど、音楽理論には規則性がある。
ドレミファソラシドで、半音の所が、解決しやすい
ファ → ミ
シ → ド
G7 → Cmajor, Aminor へ解決しやすい。
G7には、ファ・シがあるし、Cmajor, Aminor には、ミ・ドがあるから
G7をドミナント、Cmajor, Aminor はトニックという。
Fmajor, Dminor は、サブドミナントという
こういう機能で、コード進行を作っていく >>870
そんなぐらいの規則性自分で作った方が早い
四則演算レベル 一般や啓蒙書、雇用煽りが共通認識するAIは、汎用AI。
認識、学習、改善、推論、生成、表現
幾つかの分野が合わさって実現される。
深層学習は、認識、学習、改善、推論あたりの技術。ただし、扱うデータで言えば、画像に強い。言語認識は、まだ高い壁があるから、キーワードの域に絞る設計に落としている。
定義のすり替えは、拡大解釈が著しい点に尽きる。 音楽は規則性があるともいえるしないともいえる
>>870
>音楽理論には規則性がある。
これは話が逆で規則性を集めたものが音楽理論
協和音が「安定していて快い」
不協和音が「不安定で不快」
半音の移行は「解決しやすい」
というのはすべて人間が聞いてそう感じるというだけ
人間が聞いて整理された音に聞こえるものを集めたのが音楽理論
2ちゃんで誰かが「音楽理論は作曲のテンプレ集」と言ってたな
別に既存の音楽理論から外れた曲を作ったらいけないというルールはない
むしろ外したうえで整理されたように聞こえる曲をつくるのが現代音楽 >>855
むしろ固定ロジックとFPGAの関係に近いよな >>871
人工知能で作曲するというのは新しい規則が発見できるかということだと思う
人間の感覚に依存しているから、まあ無理だと思うけど >>877
新しい規則って例えば?
不協和音を作るだけじゃないの?
現代クラシックなんて誰も聞かないけどね >>878
お前にレスするんじゃなかった
やっぱり音楽は規則性がある
音楽に規則性がないとか言ってる奴は頭がおかしい >>879
早く例を出して
例えばドビュッシーの調性からずれた音楽とかそういうのが見つかるのか? 未知のものに例を出せとか
キチガイと言われても仕方のないレベル ID:7CKItQkC
ついに粘着が始まりましたw >>879
お前が言う規則性を持たない一連の音があったとして
それを音楽と呼ぶかどうか
人それぞれじゃね 音楽とはなにか芸術とはなにかを自ら思考して成果物を出せる装置 @@@^7&@@@
}
000-NIMA[%7/2ML%-&!29]~ テレビとか新聞で人工知能を見て来た人は、将棋板やニュー速に行った方がいいんじゃない? >>869
バッハの平均律ですでに尽きている気がする AI「理論なんて知るか、フィーリングだよ、フィーリング!」 フィーリングも何もパラメータの値弄ってるだけ
音楽やってる人だったら調律とか、ゲイン調整とかやんだろ?
それとやってること変わらん。 菅野よう子がつくりそうな曲を学習させて
素人が作った適当な楽譜を入力して菅野よう子っぽく変えるとか 菅野よう子が作った曲のコード進行を引用して
楽器も打ち込みから選べばいいだけ >>896
いまいち噛み合ってないのかわかんないが、
予め元になる対象が合って、それに合うようにパラメータを変更する。
あるいはその対象がないなら、パラメータ変更後の結果を評価する基準設ける。 人工知能なんて簡単だな
なんてったって、人間の意識は全て無意識的自然発生的に起こったものを
受動的に受け取ってるだけだからな
で、あとは「自分の意思でやったことにするだめに」後付けでエピソード記憶
として残す部分を実装すればできあがりだ ??
またろくに理解してないへんなやつがあらわれた >>904
???
まさか人間の意識が能動的な存在だとでも?
自分の行動は全て自分の意思で決めていると本気で思ってる?
残念ながらそれは幻想なんだよ ん?人間?
何言ってんの?文系の人?
そもそも一般人が人口知能って呼んでイメージするものは現状ないよ。
バリバリ数学の手法使って問題解いてるだけ。 >>906
そうだね
機械学習で実現できてるのはニューラルネットワーク部分
でそれができれば実は人間の脳がやってる「意識」も実は実現できる
ってことを端的に言ってる
要はいわゆる「魂」のようなものはこの世に存在しないということ あのね?
『NNが、上手くいってるのはニューロン/シナプスを模擬してるから』
とよく言われてるけど、そのモデルだから上手くいく理由は根拠が示されて無いよ。
あと、脳=NNと考えるのは議論が飛びすぎ
『魂』とかの発言ができるって頭がおかしいと思われるからやめたほうがよいぞ 特に他人から変な奴だと思われないようにすることに興味はないので
人間の「意識」は、
入力に対して無意識的に機械的なネットワーク(NN)を通じて出力された結果を
受動的に受け取ってそれをあたかも「自分が自分の意思でやったこと」である
という記憶に残してることで実現されている
ってことを言いたかっただけです
端的に言って人間も単なる周囲から入力を受けてそれに応じた機械的な出力を
してる機械に過ぎないので、今盛り上がってる機械学習もそのうち人間と区別が
つかないAIになるんだろうなと
量子コンピューターでNNを組めればほぼ脳と同じ処理能力を得るだろう 感想?
前半は実験事実です
後半は私の(脳内で勝手に発生したものを私自身が予想したと思っている)予測結果です >>909
人の脳は量子計算はやってないようだけど、どうして
>量子コンピューターでNNを組めればほぼ脳と同じ処理能力を得るだろう
といえるの? >>912
ある条件を与えて(入力)、その系のエネルギーが最も低くなる安定状態が解(出力)
となる仕組みが実際の脳のニューラルネットワークの実装に近い
クロック同期回路で構成される現行の逐次実行ベースのCPUではとてもじゃないけど
同じ処理速度は実現できない
量子コンピューター以外でNNを組むとしたら、代案として考えられるのは、
OPAMPをベースとした「アナログ」的に重み付けが可能なアナログ回路で
ニューラルネットワークの機能を模擬した実装であればあるいは脳みそに近い
実装が可能かもしれない
しかし問題は、人の脳のようにその回路(NN)を「高密度」に構成し、
かつそれを「動的に変更」できる仕組みを確保するのが現在のテクノロジーでは
難しい点である
以上のことより、量子コンピューター(量子ビット)でそれを実現する方法が、
現在の人類のテクノロジーレベルでは最も現実的な解だと思うから >>912
補足
>ある条件を与えて(入力)、その系のエネルギーが最も低くなる安定状態が解(出力)
>となる仕組み
は量子コンピューターの原理 現状で人間の脳に一番近くて現実的な方法は何か、という問題は
ある手法が人間の脳と同じかきわめて近い処理内容・同程度の処理能力を実現しているか、という問題とは別物
このスレで話すことじゃないと思うが >>915
人間の脳の機能の本質は何か?がわかっていれば別の問題として切り離せるだろうね ここはプログラムスレなので、今、プログラムで実現可能な話題に絞って欲しい。 なんかもう酷いことになってる‥
議論点もなく、ただ一個人の掃き溜めになってる
繰り返しになるけど人間の脳=NNではない
NNはニューロンシナプスの数学のモデル化の一つとして提案された恣意的なものを使い続けてるにすぎないのに >>923
脳みそもただの分類器だと認めると人間の価値が下がったように見えるからやなの? でも弱いなんたらって結構あるよな
収束性とかもそんなんないっけ >>931 >>932 >>933
このハゲェーーーーーーー!!
ちーがーうーだーろぉおおーーーーーー!!! そのネタでスレ消費してないで
もう人工脳と称して売っている会社があるから
もうそこで買ってこい。 /\_彡⌒ ミ__ これよりハゲに対する
\/(`・ω・´) /\ 誹謗中傷の監視を人工知能で行う
_|  ̄ ̄ ̄ ̄|\/_
/ |_____|/ ̄/
 ̄ ̄  ̄ ̄ >>941
それな。深層学習が本当に凄いなら、ハゲを何とかして欲しいわな。
できないなら偉そうにするな、と >>948
そんなにハゲであってほしいの?
ハゲを愛してるの?? ハゲでスレが伸びるのかw
まぁchainer使おうがtensorflow使おうが、ハゲ問題は解決しないからなw はたして、ほんとうにそうだろうか
げんいんきゅうめいにはやくだつのではないだろうか TFにkerasかぶせるみたいに
頭皮にヅラかぶせればいい STAP細胞はハゲの光りだったが
人口知能はハゲの前には無力 【乞食速報】イーサリアムバブル崩壊でRADEON RX570が今なら、320円!!急げ!!乗り遅れるな!! [無断転載禁止]2ch.net
http://matsuri.2ch.net//test/read.cgi/%68%6F%74%65%6C/1427977761/ 少し聞きたいことがあるんだけど
回帰分析の応用?で例えばだけど
4変数の入力で2変数の出力を予測したいタスクは何分析になるの? >>961
何をしたいのか上の文だけじゃわからないけど、4パラメータを2バラメータに変換したいならPCA(主成分分析)やって固有値大きい2つの固有ベクトルを選んで変換するだけ 線形性みたいなら普通のPCA
非線形ならカーネル法使えばいいだけ。 そもそも何をしたいの?
『何分析になるの?』に回答しただけ 「総計分析・機械学習は検索して見つけたサンプルコードを参考にしてライブラリを呼び出すだけ」
とか言ってくれよ 検索しなくても大学一年の線形台数で学ぶ
どういうときに有効で、逆にどういうときにダメなのかも含めてな…
それを知っていれば
>>961に
「…だけ」とか言うはずが無いと思うんだが じゃあ「…はげ」でいいよ
なにがしたいのか俺もよくわからん >>969 おっと誤字スマソ
×線形台数
○線形代数
いや別に
「〜法は…だけ」とか思っていてもらっても、
オレは全然かまわないよ >>962
めっちゃ適当だけど例えば
年齢、性別、国籍、宗教の4パラを入力として
身長と体重を予測したいとする時
身長と体重をそれぞれ別に重回帰分析してもいいんだけど
恐らく身長と体重に何らかの相関がありそうなので分離したくないなあ、と
そもそもこういう場合って普通に入力ノード4出力ノード2のNNに突っ込んで学習してもいい結果は得られないものなの? この分野進歩が早すぎて三年前の情報とか無価値になってたりする ソニーのPython2.7のみ対応でワロタ
クソゴミじゃねーか これで3.6対応で日本語ドキュメントあれば日本人は使ったと思うよ
2.7のみ英語のみだから誰も使わなそう chainer も pytorch に瞬殺されててワロタ
https://trends.google.co.jp/trends/explore?cat=5&date=today%2012-m&q=chainer,pytorch グーグルや facebookの実績が桁違いだから仕方がない
>>981
pytorchってまだベータなのにw 顔写真と似てる有名人を探すって言う
MSのcelebslike.me試してみたけど
サンプル画像すらあんまり似てない人ばかり選ばれるんだけど何で? >>984
過去一年間の勾配だと惨敗してるじゃん。今後明らかに差をつけられるんじゃね? >>984
読めないのはあんただろ
トレンド予測だと抜き去られてるし、30日間で見ても負けている 現実見れないなら、tensorflow とも比較してやるよ w
https://trends.google.co.jp/trends/explore?cat=5&date=today%2012-m&q=chainer,tensorflow chainerは純国産の技術なんだから少しは応援してやれよ… >>990
たぶんNNにいれても過学習になるだけかと >>996-997
俺の優秀な頭脳に寄付してくれよって意味なのになんで俺が禿げてる前提になってんの証拠あんのか
埋め このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 72日 1時間 43分 5秒 2ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 2ちゃんねる専用ブラウザからの広告除去
★ 2ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.2ch.net/
▼ 浪人ログインはこちら ▼
https://login.2ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。