【統計分析】機械学習・データマイニング15 [無断転載禁止]©2ch.net

■ このスレッドは過去ログ倉庫に格納されています
2017/04/16(日) 21:03:36.56ID:l3DYSGb3
機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング13
http://echo.2ch.net/test/read.cgi/tech/1487433222/
【統計分析】機械学習・データマイニング14
http://echo.2ch.net/test/read.cgi/tech/1489636623/
744デフォルトの名無しさん
垢版 |
2017/06/12(月) 09:39:25.56ID:ebImylz6
chainer 2.0 って古い資産使えるん?
745デフォルトの名無しさん
垢版 |
2017/06/12(月) 10:46:14.31ID:yuw+moiO
斎藤の本

p.94

def cross_entropy_error(y, t):
■■■■if y.ndim == 1:
■■■■■■■■t = t.reshape(1, t.size)
■■■■■■■■y = y.reshape(1, y.size)

■■■■batch_size = y.shape[0]
■■■■return -np.sum(np.log(y[np.arange(batch_size), t])) / batch_size

これ間違っていますね。

y.ndim == 1 のときに、

cross_entropy_error(np.array([0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1], 3)

みたいな使い方ができないはずです。
746デフォルトの名無しさん
垢版 |
2017/06/12(月) 10:50:06.62ID:yuw+moiO
cross_entropy_error(np.array([0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1], np.array([3]))

とすればOKですが、不自然です。

(x_train, t_train), (x_test, t_test) = load_mnist(normalize = True, one_hot_label = False)

とすると、

t_train は、 [[3], [1], [4], [1], [5], …] ではなく、 [3, 1, 4, 1, 5, …] みたいなデータになるからです。
747デフォルトの名無しさん
垢版 |
2017/06/12(月) 10:52:56.23ID:yuw+moiO
それと、p.91では、使っていた delta をp.94では忘れていますね。
2017/06/12(月) 13:56:09.59ID:BSCpnBT3
だいたいそのインデント代わりの四角なんやねん、クッソ見にくいわそれだけで氏ね
2017/06/12(月) 13:58:32.69ID:BSCpnBT3
つーかこういう系の書籍に誤植があるのなんて珍しくもなんともないだろ、いちいち騒ぐことじゃない
750デフォルトの名無しさん
垢版 |
2017/06/12(月) 14:21:36.69ID:yuw+moiO
斎藤康毅のディープラーニングの本に意味が分からないコードがありました。

p.111

def f(W):
■■■■return net.loss(x, t)

net は simpleNet というクラスのインスタンスです。

このコードがさっぱり分かりません。

W がなぜ引数にあるのでしょうか?
2017/06/12(月) 14:34:19.68ID:S3o3Jf5d
インデントの■はそのまま貼り付けると大変なことになるから俺はいいと思う
752デフォルトの名無しさん
垢版 |
2017/06/12(月) 14:51:29.93ID:yuw+moiO
def softmax(x):
■■■■if x.ndim == 2:
■■■■■■■■x = x.T
■■■■■■■■x = x - np.max(x, axis=0)
■■■■■■■■y = np.exp(x) / np.sum(np.exp(x), axis=0)
■■■■■■■■return y.T

■■■■x = x - np.max(x) # オーバーフロー対策
■■■■return np.exp(x) / np.sum(np.exp(x))

def cross_entropy_error(y, t):
■■■■if y.ndim == 1:
■■■■■■■■t = t.reshape(1, t.size)
■■■■■■■■y = y.reshape(1, y.size)
■■■■■■■■
■■■■# 教師データがone-hot-vectorの場合、正解ラベルのインデックスに変換
■■■■if t.size == y.size:
■■■■■■■■t = t.argmax(axis=1)
■■■■■■■■■■■■
■■■■batch_size = y.shape[0]
■■■■return -np.sum(np.log(y[np.arange(batch_size), t])) / batch_size
753デフォルトの名無しさん
垢版 |
2017/06/12(月) 14:52:31.32ID:yuw+moiO
def numerical_gradient(f, x):
■■■■h = 1e-4 # 0.0001
■■■■grad = np.zeros_like(x)
■■■■
■■■■it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
■■■■while not it.finished:
■■■■■■■■idx = it.multi_index
■■■■■■■■tmp_val = x[idx]
■■■■■■■■x[idx] = float(tmp_val) + h
■■■■■■■■fxh1 = f(x) # f(x+h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val - h
■■■■■■■■fxh2 = f(x) # f(x-h)
■■■■■■■■grad[idx] = (fxh1 - fxh2) / (2*h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val # 値を元に戻す
■■■■■■■■it.iternext()
■■■■■■■■
■■■■return grad
754デフォルトの名無しさん
垢版 |
2017/06/12(月) 14:52:48.36ID:yuw+moiO
class simpleNet:
■■■■def __init__(self):
■■■■■■■■self.W = np.random.randn(2,3) #標準正規分布による 2x3 の行列

■■■■def predict(self, x):
■■■■■■■■return np.dot(x, self.W)

■■■■def loss(self, x, t):
■■■■■■■■z = self.predict(x)
■■■■■■■■y = softmax(z)
■■■■■■■■loss = cross_entropy_error(y, t)

■■■■■■■■return loss
755デフォルトの名無しさん
垢版 |
2017/06/12(月) 14:54:09.40ID:yuw+moiO
x = np.array([0.6, 0.9])
t = np.array([0, 0, 1])

net = simpleNet()

f = lambda w: net.loss(x, t)
dW = numerical_gradient(f, net.W)

print(dW)


★★★★★★★★★★★★★
★↑の f が理解できません。★
★★★★★★★★★★★★★
756デフォルトの名無しさん
垢版 |
2017/06/12(月) 14:57:27.95ID:yuw+moiO
まず、

仮引数の w が使われていません。

仮引数に渡していない、 net, x, t を使っているところもよくわかりません。
グローバル変数ということでしょうか?

その関数 f を numerical_gradient に渡しています。
757デフォルトの名無しさん
垢版 |
2017/06/12(月) 15:03:35.02ID:yuw+moiO
スコープについて正確に理解していないからよく理解できないのかもしれません。
758デフォルトの名無しさん
垢版 |
2017/06/12(月) 15:05:03.31ID:yuw+moiO
numerical_gradient 内のこれ↓ですが、 x はダミーの引数ですね。

fxh1 = f(x) # f(x+h)
759デフォルトの名無しさん
垢版 |
2017/06/12(月) 15:07:56.32ID:yuw+moiO
グローバル変数の net というのは、関数の中で呼び出されている関数の中でも
使えるんですか?
760デフォルトの名無しさん
垢版 |
2017/06/12(月) 15:09:49.85ID:yuw+moiO
あ、できますね↓

glvar = "abc"

def myfunc1():
■■■■myfunc2()

def myfunc2():
■■■■print(glvar)

myfunc1()
761デフォルトの名無しさん
垢版 |
2017/06/12(月) 15:11:05.87ID:yuw+moiO
しかし、この斎藤っていう人、こんあひどいコードをよく恥ずかしげもなく公開できますね。
762デフォルトの名無しさん
垢版 |
2017/06/12(月) 15:11:58.06ID:yuw+moiO
なんでこの斎藤っていう人の本は高評価なんですか?

こんなひどいコード見たことがないです。正直言って。
763デフォルトの名無しさん
垢版 |
2017/06/12(月) 15:12:31.37ID:yuw+moiO
意図的に人を混乱に陥れようとしているかのようです。
764デフォルトの名無しさん
垢版 |
2017/06/12(月) 15:22:22.17ID:yuw+moiO
def f(W):
■■■■return cross_entropy_error(softmax(np.dot(x, W)), t)

↑こう書けば、x, t がグローバル変数ですが、理解可能だったと思います。
765デフォルトの名無しさん
垢版 |
2017/06/12(月) 15:37:37.83ID:yuw+moiO
もっと先でどうなっているのか知りませんけど、

コードの再利用を絶対しなければならないとかいう強迫観念があるかのようですね。
2017/06/12(月) 15:49:25.68ID:8oNahNJi
松坂君はアスペなのでスルー
767デフォルトの名無しさん
垢版 |
2017/06/12(月) 16:20:19.77ID:aPAWwdD7
レス飛んで見えない…
768デフォルトの名無しさん
垢版 |
2017/06/12(月) 18:38:50.85ID:yuw+moiO
def numerical_gradient(f, x):
■■■■h = 1e-4 # 0.0001
■■■■grad = np.zeros_like(x)
■■■■
■■■■it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
■■■■while not it.finished:
■■■■■■■■idx = it.multi_index
■■■■■■■■tmp_val = x[idx]
■■■■■■■■x[idx] = float(tmp_val) + h
■■■■■■■■fxh1 = f(x) # f(x+h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val - h
■■■■■■■■fxh2 = f(x) # f(x-h)
■■■■■■■■grad[idx] = (fxh1 - fxh2) / (2*h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val # 値を元に戻す
■■■■■■■■it.iternext()
■■■■■■■■
■■■■return grad
2017/06/12(月) 18:56:22.69ID:3CfNjtZc
ideone にでも貼って
2017/06/12(月) 19:03:49.53ID:kXyAwoZw
日記帳かな?
2017/06/12(月) 20:14:17.83ID:NCHMgwiC
■の交差点に当たる部分が黒っぽく見えるヤツは脳に障害があるから気をつけろ
772デフォルトの名無しさん
垢版 |
2017/06/12(月) 20:20:13.35ID:yuw+moiO
錯視が見えない人のほうがやばいのではないでしょうか?

↓新井仁之さん作の錯視です。

夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー

ーナワ夏ーナワ夏ーナワ夏ーナワ夏ーナワ夏
ーナワ夏ーナワ夏ーナワ夏ーナワ夏ーナワ夏

夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
2017/06/12(月) 20:49:15.33ID:UFnpQy8S
>>771
黄色に見えるんだが、まずい?
2017/06/12(月) 22:03:20.22ID:d5p6YbPE
ID:yuw+moiOは今日の一位
2017/06/12(月) 22:10:40.76ID:7Z19E2p7
ここまでスレを私物化するとは恐れ入った
2017/06/13(火) 00:04:52.44ID:Mtdqriu6
出版社に聞けば良い
2017/06/13(火) 01:30:08.30ID:DE8cfelx
ID:yuw+moiO
は問題点とその解決策を知っているのに
それをネタに以前から機械学習スレに寄生して自己アピールしている輩。
本の誤植をする暇あったら自分で話題を振った人工脳、囲碁ソフトを最後まで貫徹しろ
2017/06/13(火) 01:52:16.95ID:Qub3huW8
こいつ定期的に湧いては毎回捨て台詞残して去ってくガイジよな?
779デフォルトの名無しさん
垢版 |
2017/06/13(火) 07:08:16.37ID:vTvJ85fe
そうそう、ここはお前の日記帳ちゃうからな定期
2017/06/13(火) 07:14:38.89ID:mB5PsSmf
ここはchainerをマンセーするとこみたい
781デフォルトの名無しさん
垢版 |
2017/06/13(火) 08:50:19.28ID:2/vIeE6p
chainerのモデルをc言語に変換する機能を早く作ってくれ
782デフォルトの名無しさん
垢版 |
2017/06/13(火) 16:46:55.59ID:C1RmxyOE
>>781
chainerのモデルを機械語にへんかんする機能を早く作ってくれ。
2017/06/13(火) 17:19:48.06ID:o8sz+Rrs
Cならtiny-dnnとか使ってみてはどうだろうか
784デフォルトの名無しさん
垢版 |
2017/06/14(水) 22:18:18.87ID:FFtrTT0/
ニューラルネットの作図何使って書いてる?
いいのあったら教えてくれ
2017/06/14(水) 23:13:46.17ID:7OziKzZZ
作図ってなんやねん
ANNなんて作図もクソもないやろ
2017/06/15(木) 00:00:11.41ID:73QUpRhJ
>>784
ビジオ
2017/06/15(木) 01:36:53.25ID:oYl2jhaA
『入力⇒機械学習⇒出力』

って書けば十分
2017/06/15(木) 17:45:58.79ID:CH6c1rSc
正論
2017/06/15(木) 17:51:51.86ID:ePr3c3Am
異論
2017/06/15(木) 23:28:36.01ID:9syGziw3
定説です
2017/06/15(木) 23:40:54.67ID:ChQ2CBhk
風説
2017/06/16(金) 00:07:33.45ID:C40LWxzu
いちいちニューロンと結びつけて話す必要はない
793デフォルトの名無しさん
垢版 |
2017/06/16(金) 06:02:19.10ID:InJ7BRbF
時系列データって深層強化学習で処理できんの?
2017/06/16(金) 13:37:27.48ID:YhgtDNjG
<<-C%%->>
OZHEZ-[[[\\%5%==GLAMB]]]
E=4.323111111111111111111111111111111121
0.4E5Z<<<OBROB%/++11/$end
2017/06/16(金) 16:26:19.45ID:I/6vJIh0
ICONIP
いきたいけど旅費がない
萌芽の発表は7月だし
2017/06/16(金) 16:33:36.33ID:KtCc4FWk
発表もしないのにいけるのか、ゆとり
797デフォルトの名無しさん
垢版 |
2017/06/16(金) 16:48:21.80ID:ixzzoI9b
斎藤康毅のゼロから作るDeep Learningはどの本を元に書いたのでしょうか?
798デフォルトの名無しさん
垢版 |
2017/06/16(金) 18:38:29.18ID:1eQLQexT
http://www2.nhk.or.jp/hensei/program/p.cgi?area=001&;date=2017-06-16&ch=21&eid=28823&f=758
今朝ポナンザの山本一成さんがNHKに出てた
799デフォルトの名無しさん
垢版 |
2017/06/16(金) 18:41:12.93ID:1eQLQexT
↑上のリンクから再放送依頼できるけど

アーカイブに今晩バックナンバー載りそう
http://www.nhk.or.jp/kaisetsu-blog/400/
2017/06/16(金) 21:00:01.03ID:vkemD3MD
>>771
黒?白(灰色)の間違いじゃないの
2017/06/16(金) 23:30:43.54ID:GEzsUpdW
>>800
なるほど確かに脳に障害がありそうだ
2017/06/17(土) 07:16:47.10ID:/8BMQ3Rn
>>797

これだろ
ttp://nnadl-ja.github.io/nnadl_site_ja/index.html
2017/06/17(土) 09:45:56.10ID:K9qvepHC
>>801
そうなの?正常な脳にはどう見えるのかな
2017/06/17(土) 13:16:08.56ID:n6TLE+k2
しっかし、アホみたいな本が増えたな。
ニューラルネットワーク=バックプロパゲーションで解かないとダメみたいなアホがホントに増えた
805デフォルトの名無しさん
垢版 |
2017/06/17(土) 20:03:30.75ID:8t/ZpRhM
バックプロップ以外に実用性があるものってなに?
2017/06/17(土) 20:51:18.42ID:Xcjg2E/o
バックドロップかな。防犯に最適。
2017/06/17(土) 21:21:33.08ID:jNo4H0U+
まあANN入門するような人には分かりやすくていいんじゃない?
2017/06/17(土) 21:40:55.39ID:YTZvAUVb
人工勾配とか?
2017/06/17(土) 22:16:18.94ID:ncuWnJKs
ニューロファジーはオワコン?
2017/06/17(土) 22:18:41.30ID:Ya2yzLrD
ファジーは確率論そのものだからな
完全に吸収されハッテン的に解消された
2017/06/17(土) 22:28:09.02ID:d6cunnJW
誰もやってないのならやってみたら
2017/06/18(日) 13:35:07.62ID:1x/qQ/cP
kerasの日本語ドキュメントはバージョン1のまま
WARNING出て気付いた
keras使う人は最初から英語ドキュメント見て書いたほうが良い
2017/06/18(日) 13:49:36.29ID:JNJOh7ed
TF1.2になったけど直接upgradeできないのか
814デフォルトの名無しさん
垢版 |
2017/06/18(日) 22:05:35.27ID:aNa0zBRT
誰も問題視してない気がするんだけど、ReLUレイヤーより前側にあるニューロンって一度変なところにハマったら永遠に学習されないこともあるんじゃないの?
これどうやって解決すりゃいいんだろ
2017/06/18(日) 22:53:32.63ID:RQgPmra0
初期値変更してやり直し
2017/06/18(日) 22:55:19.18ID:uGuVh2xb
アクティベーションしない層なんて作るなよアホかw
817デフォルトの名無しさん
垢版 |
2017/06/18(日) 23:30:21.78ID:aNa0zBRT
>>815
やっぱりそうするのか・・・・
2017/06/19(月) 00:59:17.47ID:L7VCydWs
>>813
結局再インストール
2017/06/19(月) 01:45:23.93ID:60o+lpD5
>>813 >>818
直接 upgrade できるに決まってるだろ。他のフレームワークの信者かよw
2017/06/19(月) 05:20:41.61ID:HgBTAijm
lreluとか簡単じゃん
821デフォルトの名無しさん
垢版 |
2017/06/19(月) 09:45:48.84ID:JRZAs/i8
>>814
あなた基本の基本ですよ
2017/06/19(月) 09:48:05.40ID:j8XPCuUX
>>814
Mac信者とかジョブズ信者は変なところにハマったら永遠に学習されないパティーン
823デフォルトの名無しさん
垢版 |
2017/06/19(月) 12:00:30.55ID:0IiK5rsw
斎藤康毅著『ゼロから作るDeep Learning』

ですが、多変数関数の連鎖律の説明が全くないですね。

いいんですかね?

(5.13)の前ところで、多変数関数の連鎖律を説明する必要があるはずです。
2017/06/19(月) 12:21:01.89ID:JRZAs/i8
だれでも知ってるからな
825デフォルトの名無しさん
垢版 |
2017/06/19(月) 12:29:48.52ID:0IiK5rsw
>>824

では、なぜ、1変数関数の微分の説明などを書いているのでしょうか?

1変数関数の微分など高校生なら誰でも知っています。
826デフォルトの名無しさん
垢版 |
2017/06/19(月) 12:34:57.92ID:0IiK5rsw
>>824

では、なぜ行列の積の定義など書いているのでしょうか?

この本では、「内積」などと書いてあって、線形代数の本を1冊も読んだことがないことが明白になっていますが。
827デフォルトの名無しさん
垢版 |
2017/06/19(月) 12:44:50.41ID:ys29Ylcz
書く人の自由。それだけ。
それでは次の話題どうぞ。
828デフォルトの名無しさん
垢版 |
2017/06/19(月) 12:48:40.61ID:0IiK5rsw
斎藤さんが線形代数の本を読んだことがないことは、
p.149の(5.14)を見ても分かります。

Wの成分の添え字の付け方が標準的じゃないです。
2017/06/19(月) 15:05:28.75ID:O5LBcqZV
松坂君のアスペ日記
2017/06/19(月) 16:19:54.04ID:JOgg+pf9
>>ID:0IiK5rsw
正直それは本質的にどうでもいい指摘
もう少しメリットをよく考えて指摘してね
2017/06/19(月) 16:48:54.09ID:oa7fQHyl
くやしいのう
立ち読みでよく読まずにネットで本買うからだよ
2017/06/19(月) 16:51:26.18ID:oa7fQHyl
書評わろす
http://www.amazon.co.jp/dp/4873117585
2017/06/19(月) 16:55:12.54ID:oa7fQHyl
白馬に乗った王子様ω
2017/06/19(月) 16:56:05.76ID:yxzxzB1Z
ハイヨーシルバー
2017/06/19(月) 18:41:55.35ID:oa7fQHyl
>もうおめーが執筆しろよ

ほんそれ
2017/06/19(月) 19:06:09.83ID:uUACxRGV
ID:0IiK5rsw
それでは各論まとめて
結論とうぞ
2017/06/19(月) 22:34:22.00ID:+3k0G+SI
何その本
外部のライブラリに頼らずpythonでゼロから作るとか
頭悪すぎだろワロタわ
2017/06/19(月) 22:59:49.58ID:yo8gS+8N
斉藤何某の本の荒さがして、彼をこき下ろせればうれしい松坂君(ID:0IiK5rsw)
2017/06/19(月) 23:33:42.41ID:LAADOK2/
質問ですが、機械学習にmathematicaは向いていますか?
2017/06/20(火) 01:17:23.06ID:KtZyi5C/
何をさせたいのかよく分からない。
新手のアスペルガーかな?
841デフォルトの名無しさん
垢版 |
2017/06/20(火) 05:37:17.12ID:xv2Ykfsc
はい私はとても健康です
2017/06/20(火) 11:17:32.00ID:QVmphIOX
>>832
屑のようなレビュワーがいるなと思ったら、松坂君だったのね。
843デフォルトの名無しさん
垢版 |
2017/06/21(水) 09:03:09.37ID:0b3SfvhC
機械学習は特別なモノだと思ってたけど、そうでも無かった。
サンプル値→アルゴ→探査→出力 から
サンプル値→学習アルゴ→探査→出力 に変わって程度?

コンピューターである程度予測できると言う事は、人間が数字に頼りすぎてる
だけなんじゃ ないかと思う。
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況