機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング13
http://echo.2ch.net/test/read.cgi/tech/1487433222/
【統計分析】機械学習・データマイニング14
http://echo.2ch.net/test/read.cgi/tech/1489636623/
探検
【統計分析】機械学習・データマイニング15 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
2017/04/16(日) 21:03:36.56ID:l3DYSGb3
740デフォルトの名無しさん
2017/06/11(日) 22:47:48.71ID:7PvmoOJK >>735
matplotlibの場合は以下のコマンドをかけば Jupyter notebook 上に画像が表示されるようになります。
%matplotlib inline
PILの場合も同様のやり方はないでしょうか?
matplotlibの場合は以下のコマンドをかけば Jupyter notebook 上に画像が表示されるようになります。
%matplotlib inline
PILの場合も同様のやり方はないでしょうか?
741デフォルトの名無しさん
2017/06/11(日) 23:06:02.66ID:7PvmoOJK >>735
強引なやり方として、
def img_show(img):
■■■■pil_img = Image.fromarray(np.uint8(img))
■■■■pil_img.show()
を以下のように変更して、 Jupyter notebook 上に画像を表示させています。
def img_show(img):
■■■■pil_img = Image.fromarray(np.uint8(img))
■■■■pil_img.save('temp.bmp')
■■■■img = imread('temp.bmp')
■■■■plt.imshow(img)
■■■■plt.gray()
■■■■plt.show()
強引なやり方として、
def img_show(img):
■■■■pil_img = Image.fromarray(np.uint8(img))
■■■■pil_img.show()
を以下のように変更して、 Jupyter notebook 上に画像を表示させています。
def img_show(img):
■■■■pil_img = Image.fromarray(np.uint8(img))
■■■■pil_img.save('temp.bmp')
■■■■img = imread('temp.bmp')
■■■■plt.imshow(img)
■■■■plt.gray()
■■■■plt.show()
742デフォルトの名無しさん
2017/06/11(日) 23:46:24.97ID:EXopzZNl カロニカルアンサンブルw
743デフォルトの名無しさん
2017/06/12(月) 09:36:48.45ID:ebImylz6 >>709
思った人が作る世界
思った人が作る世界
744デフォルトの名無しさん
2017/06/12(月) 09:39:25.56ID:ebImylz6 chainer 2.0 って古い資産使えるん?
745デフォルトの名無しさん
2017/06/12(月) 10:46:14.31ID:yuw+moiO 斎藤の本
p.94
def cross_entropy_error(y, t):
■■■■if y.ndim == 1:
■■■■■■■■t = t.reshape(1, t.size)
■■■■■■■■y = y.reshape(1, y.size)
■■■■batch_size = y.shape[0]
■■■■return -np.sum(np.log(y[np.arange(batch_size), t])) / batch_size
これ間違っていますね。
y.ndim == 1 のときに、
cross_entropy_error(np.array([0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1], 3)
みたいな使い方ができないはずです。
p.94
def cross_entropy_error(y, t):
■■■■if y.ndim == 1:
■■■■■■■■t = t.reshape(1, t.size)
■■■■■■■■y = y.reshape(1, y.size)
■■■■batch_size = y.shape[0]
■■■■return -np.sum(np.log(y[np.arange(batch_size), t])) / batch_size
これ間違っていますね。
y.ndim == 1 のときに、
cross_entropy_error(np.array([0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1], 3)
みたいな使い方ができないはずです。
746デフォルトの名無しさん
2017/06/12(月) 10:50:06.62ID:yuw+moiO cross_entropy_error(np.array([0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1], np.array([3]))
とすればOKですが、不自然です。
(x_train, t_train), (x_test, t_test) = load_mnist(normalize = True, one_hot_label = False)
とすると、
t_train は、 [[3], [1], [4], [1], [5], …] ではなく、 [3, 1, 4, 1, 5, …] みたいなデータになるからです。
とすればOKですが、不自然です。
(x_train, t_train), (x_test, t_test) = load_mnist(normalize = True, one_hot_label = False)
とすると、
t_train は、 [[3], [1], [4], [1], [5], …] ではなく、 [3, 1, 4, 1, 5, …] みたいなデータになるからです。
747デフォルトの名無しさん
2017/06/12(月) 10:52:56.23ID:yuw+moiO それと、p.91では、使っていた delta をp.94では忘れていますね。
748デフォルトの名無しさん
2017/06/12(月) 13:56:09.59ID:BSCpnBT3 だいたいそのインデント代わりの四角なんやねん、クッソ見にくいわそれだけで氏ね
749デフォルトの名無しさん
2017/06/12(月) 13:58:32.69ID:BSCpnBT3 つーかこういう系の書籍に誤植があるのなんて珍しくもなんともないだろ、いちいち騒ぐことじゃない
750デフォルトの名無しさん
2017/06/12(月) 14:21:36.69ID:yuw+moiO 斎藤康毅のディープラーニングの本に意味が分からないコードがありました。
p.111
def f(W):
■■■■return net.loss(x, t)
net は simpleNet というクラスのインスタンスです。
このコードがさっぱり分かりません。
W がなぜ引数にあるのでしょうか?
p.111
def f(W):
■■■■return net.loss(x, t)
net は simpleNet というクラスのインスタンスです。
このコードがさっぱり分かりません。
W がなぜ引数にあるのでしょうか?
751デフォルトの名無しさん
2017/06/12(月) 14:34:19.68ID:S3o3Jf5d インデントの■はそのまま貼り付けると大変なことになるから俺はいいと思う
752デフォルトの名無しさん
2017/06/12(月) 14:51:29.93ID:yuw+moiO def softmax(x):
■■■■if x.ndim == 2:
■■■■■■■■x = x.T
■■■■■■■■x = x - np.max(x, axis=0)
■■■■■■■■y = np.exp(x) / np.sum(np.exp(x), axis=0)
■■■■■■■■return y.T
■■■■x = x - np.max(x) # オーバーフロー対策
■■■■return np.exp(x) / np.sum(np.exp(x))
def cross_entropy_error(y, t):
■■■■if y.ndim == 1:
■■■■■■■■t = t.reshape(1, t.size)
■■■■■■■■y = y.reshape(1, y.size)
■■■■■■■■
■■■■# 教師データがone-hot-vectorの場合、正解ラベルのインデックスに変換
■■■■if t.size == y.size:
■■■■■■■■t = t.argmax(axis=1)
■■■■■■■■■■■■
■■■■batch_size = y.shape[0]
■■■■return -np.sum(np.log(y[np.arange(batch_size), t])) / batch_size
■■■■if x.ndim == 2:
■■■■■■■■x = x.T
■■■■■■■■x = x - np.max(x, axis=0)
■■■■■■■■y = np.exp(x) / np.sum(np.exp(x), axis=0)
■■■■■■■■return y.T
■■■■x = x - np.max(x) # オーバーフロー対策
■■■■return np.exp(x) / np.sum(np.exp(x))
def cross_entropy_error(y, t):
■■■■if y.ndim == 1:
■■■■■■■■t = t.reshape(1, t.size)
■■■■■■■■y = y.reshape(1, y.size)
■■■■■■■■
■■■■# 教師データがone-hot-vectorの場合、正解ラベルのインデックスに変換
■■■■if t.size == y.size:
■■■■■■■■t = t.argmax(axis=1)
■■■■■■■■■■■■
■■■■batch_size = y.shape[0]
■■■■return -np.sum(np.log(y[np.arange(batch_size), t])) / batch_size
753デフォルトの名無しさん
2017/06/12(月) 14:52:31.32ID:yuw+moiO def numerical_gradient(f, x):
■■■■h = 1e-4 # 0.0001
■■■■grad = np.zeros_like(x)
■■■■
■■■■it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
■■■■while not it.finished:
■■■■■■■■idx = it.multi_index
■■■■■■■■tmp_val = x[idx]
■■■■■■■■x[idx] = float(tmp_val) + h
■■■■■■■■fxh1 = f(x) # f(x+h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val - h
■■■■■■■■fxh2 = f(x) # f(x-h)
■■■■■■■■grad[idx] = (fxh1 - fxh2) / (2*h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val # 値を元に戻す
■■■■■■■■it.iternext()
■■■■■■■■
■■■■return grad
■■■■h = 1e-4 # 0.0001
■■■■grad = np.zeros_like(x)
■■■■
■■■■it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
■■■■while not it.finished:
■■■■■■■■idx = it.multi_index
■■■■■■■■tmp_val = x[idx]
■■■■■■■■x[idx] = float(tmp_val) + h
■■■■■■■■fxh1 = f(x) # f(x+h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val - h
■■■■■■■■fxh2 = f(x) # f(x-h)
■■■■■■■■grad[idx] = (fxh1 - fxh2) / (2*h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val # 値を元に戻す
■■■■■■■■it.iternext()
■■■■■■■■
■■■■return grad
754デフォルトの名無しさん
2017/06/12(月) 14:52:48.36ID:yuw+moiO class simpleNet:
■■■■def __init__(self):
■■■■■■■■self.W = np.random.randn(2,3) #標準正規分布による 2x3 の行列
■■■■def predict(self, x):
■■■■■■■■return np.dot(x, self.W)
■■■■def loss(self, x, t):
■■■■■■■■z = self.predict(x)
■■■■■■■■y = softmax(z)
■■■■■■■■loss = cross_entropy_error(y, t)
■■■■■■■■return loss
■■■■def __init__(self):
■■■■■■■■self.W = np.random.randn(2,3) #標準正規分布による 2x3 の行列
■■■■def predict(self, x):
■■■■■■■■return np.dot(x, self.W)
■■■■def loss(self, x, t):
■■■■■■■■z = self.predict(x)
■■■■■■■■y = softmax(z)
■■■■■■■■loss = cross_entropy_error(y, t)
■■■■■■■■return loss
755デフォルトの名無しさん
2017/06/12(月) 14:54:09.40ID:yuw+moiO x = np.array([0.6, 0.9])
t = np.array([0, 0, 1])
net = simpleNet()
f = lambda w: net.loss(x, t)
dW = numerical_gradient(f, net.W)
print(dW)
★★★★★★★★★★★★★
★↑の f が理解できません。★
★★★★★★★★★★★★★
t = np.array([0, 0, 1])
net = simpleNet()
f = lambda w: net.loss(x, t)
dW = numerical_gradient(f, net.W)
print(dW)
★★★★★★★★★★★★★
★↑の f が理解できません。★
★★★★★★★★★★★★★
756デフォルトの名無しさん
2017/06/12(月) 14:57:27.95ID:yuw+moiO まず、
仮引数の w が使われていません。
仮引数に渡していない、 net, x, t を使っているところもよくわかりません。
グローバル変数ということでしょうか?
その関数 f を numerical_gradient に渡しています。
仮引数の w が使われていません。
仮引数に渡していない、 net, x, t を使っているところもよくわかりません。
グローバル変数ということでしょうか?
その関数 f を numerical_gradient に渡しています。
757デフォルトの名無しさん
2017/06/12(月) 15:03:35.02ID:yuw+moiO スコープについて正確に理解していないからよく理解できないのかもしれません。
758デフォルトの名無しさん
2017/06/12(月) 15:05:03.31ID:yuw+moiO numerical_gradient 内のこれ↓ですが、 x はダミーの引数ですね。
fxh1 = f(x) # f(x+h)
fxh1 = f(x) # f(x+h)
759デフォルトの名無しさん
2017/06/12(月) 15:07:56.32ID:yuw+moiO グローバル変数の net というのは、関数の中で呼び出されている関数の中でも
使えるんですか?
使えるんですか?
760デフォルトの名無しさん
2017/06/12(月) 15:09:49.85ID:yuw+moiO あ、できますね↓
glvar = "abc"
def myfunc1():
■■■■myfunc2()
def myfunc2():
■■■■print(glvar)
myfunc1()
glvar = "abc"
def myfunc1():
■■■■myfunc2()
def myfunc2():
■■■■print(glvar)
myfunc1()
761デフォルトの名無しさん
2017/06/12(月) 15:11:05.87ID:yuw+moiO しかし、この斎藤っていう人、こんあひどいコードをよく恥ずかしげもなく公開できますね。
762デフォルトの名無しさん
2017/06/12(月) 15:11:58.06ID:yuw+moiO なんでこの斎藤っていう人の本は高評価なんですか?
こんなひどいコード見たことがないです。正直言って。
こんなひどいコード見たことがないです。正直言って。
763デフォルトの名無しさん
2017/06/12(月) 15:12:31.37ID:yuw+moiO 意図的に人を混乱に陥れようとしているかのようです。
764デフォルトの名無しさん
2017/06/12(月) 15:22:22.17ID:yuw+moiO def f(W):
■■■■return cross_entropy_error(softmax(np.dot(x, W)), t)
↑こう書けば、x, t がグローバル変数ですが、理解可能だったと思います。
■■■■return cross_entropy_error(softmax(np.dot(x, W)), t)
↑こう書けば、x, t がグローバル変数ですが、理解可能だったと思います。
765デフォルトの名無しさん
2017/06/12(月) 15:37:37.83ID:yuw+moiO もっと先でどうなっているのか知りませんけど、
コードの再利用を絶対しなければならないとかいう強迫観念があるかのようですね。
コードの再利用を絶対しなければならないとかいう強迫観念があるかのようですね。
766デフォルトの名無しさん
2017/06/12(月) 15:49:25.68ID:8oNahNJi 松坂君はアスペなのでスルー
767デフォルトの名無しさん
2017/06/12(月) 16:20:19.77ID:aPAWwdD7 レス飛んで見えない…
768デフォルトの名無しさん
2017/06/12(月) 18:38:50.85ID:yuw+moiO def numerical_gradient(f, x):
■■■■h = 1e-4 # 0.0001
■■■■grad = np.zeros_like(x)
■■■■
■■■■it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
■■■■while not it.finished:
■■■■■■■■idx = it.multi_index
■■■■■■■■tmp_val = x[idx]
■■■■■■■■x[idx] = float(tmp_val) + h
■■■■■■■■fxh1 = f(x) # f(x+h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val - h
■■■■■■■■fxh2 = f(x) # f(x-h)
■■■■■■■■grad[idx] = (fxh1 - fxh2) / (2*h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val # 値を元に戻す
■■■■■■■■it.iternext()
■■■■■■■■
■■■■return grad
■■■■h = 1e-4 # 0.0001
■■■■grad = np.zeros_like(x)
■■■■
■■■■it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
■■■■while not it.finished:
■■■■■■■■idx = it.multi_index
■■■■■■■■tmp_val = x[idx]
■■■■■■■■x[idx] = float(tmp_val) + h
■■■■■■■■fxh1 = f(x) # f(x+h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val - h
■■■■■■■■fxh2 = f(x) # f(x-h)
■■■■■■■■grad[idx] = (fxh1 - fxh2) / (2*h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val # 値を元に戻す
■■■■■■■■it.iternext()
■■■■■■■■
■■■■return grad
770デフォルトの名無しさん
2017/06/12(月) 19:03:49.53ID:kXyAwoZw 日記帳かな?
771デフォルトの名無しさん
2017/06/12(月) 20:14:17.83ID:NCHMgwiC ■の交差点に当たる部分が黒っぽく見えるヤツは脳に障害があるから気をつけろ
772デフォルトの名無しさん
2017/06/12(月) 20:20:13.35ID:yuw+moiO 錯視が見えない人のほうがやばいのではないでしょうか?
↓新井仁之さん作の錯視です。
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
ーナワ夏ーナワ夏ーナワ夏ーナワ夏ーナワ夏
ーナワ夏ーナワ夏ーナワ夏ーナワ夏ーナワ夏
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
↓新井仁之さん作の錯視です。
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
ーナワ夏ーナワ夏ーナワ夏ーナワ夏ーナワ夏
ーナワ夏ーナワ夏ーナワ夏ーナワ夏ーナワ夏
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
773デフォルトの名無しさん
2017/06/12(月) 20:49:15.33ID:UFnpQy8S >>771
黄色に見えるんだが、まずい?
黄色に見えるんだが、まずい?
774デフォルトの名無しさん
2017/06/12(月) 22:03:20.22ID:d5p6YbPE ID:yuw+moiOは今日の一位
775デフォルトの名無しさん
2017/06/12(月) 22:10:40.76ID:7Z19E2p7 ここまでスレを私物化するとは恐れ入った
776デフォルトの名無しさん
2017/06/13(火) 00:04:52.44ID:Mtdqriu6 出版社に聞けば良い
777デフォルトの名無しさん
2017/06/13(火) 01:30:08.30ID:DE8cfelx ID:yuw+moiO
は問題点とその解決策を知っているのに
それをネタに以前から機械学習スレに寄生して自己アピールしている輩。
本の誤植をする暇あったら自分で話題を振った人工脳、囲碁ソフトを最後まで貫徹しろ
は問題点とその解決策を知っているのに
それをネタに以前から機械学習スレに寄生して自己アピールしている輩。
本の誤植をする暇あったら自分で話題を振った人工脳、囲碁ソフトを最後まで貫徹しろ
778デフォルトの名無しさん
2017/06/13(火) 01:52:16.95ID:Qub3huW8 こいつ定期的に湧いては毎回捨て台詞残して去ってくガイジよな?
779デフォルトの名無しさん
2017/06/13(火) 07:08:16.37ID:vTvJ85fe そうそう、ここはお前の日記帳ちゃうからな定期
780デフォルトの名無しさん
2017/06/13(火) 07:14:38.89ID:mB5PsSmf ここはchainerをマンセーするとこみたい
781デフォルトの名無しさん
2017/06/13(火) 08:50:19.28ID:2/vIeE6p chainerのモデルをc言語に変換する機能を早く作ってくれ
782デフォルトの名無しさん
2017/06/13(火) 16:46:55.59ID:C1RmxyOE >>781
chainerのモデルを機械語にへんかんする機能を早く作ってくれ。
chainerのモデルを機械語にへんかんする機能を早く作ってくれ。
783デフォルトの名無しさん
2017/06/13(火) 17:19:48.06ID:o8sz+Rrs Cならtiny-dnnとか使ってみてはどうだろうか
784デフォルトの名無しさん
2017/06/14(水) 22:18:18.87ID:FFtrTT0/ ニューラルネットの作図何使って書いてる?
いいのあったら教えてくれ
いいのあったら教えてくれ
785デフォルトの名無しさん
2017/06/14(水) 23:13:46.17ID:7OziKzZZ 作図ってなんやねん
ANNなんて作図もクソもないやろ
ANNなんて作図もクソもないやろ
786デフォルトの名無しさん
2017/06/15(木) 00:00:11.41ID:73QUpRhJ >>784
ビジオ
ビジオ
787デフォルトの名無しさん
2017/06/15(木) 01:36:53.25ID:oYl2jhaA 『入力⇒機械学習⇒出力』
って書けば十分
って書けば十分
788デフォルトの名無しさん
2017/06/15(木) 17:45:58.79ID:CH6c1rSc 正論
789デフォルトの名無しさん
2017/06/15(木) 17:51:51.86ID:ePr3c3Am 異論
790デフォルトの名無しさん
2017/06/15(木) 23:28:36.01ID:9syGziw3 定説です
791デフォルトの名無しさん
2017/06/15(木) 23:40:54.67ID:ChQ2CBhk 風説
792デフォルトの名無しさん
2017/06/16(金) 00:07:33.45ID:C40LWxzu いちいちニューロンと結びつけて話す必要はない
793デフォルトの名無しさん
2017/06/16(金) 06:02:19.10ID:InJ7BRbF 時系列データって深層強化学習で処理できんの?
794デフォルトの名無しさん
2017/06/16(金) 13:37:27.48ID:YhgtDNjG <<-C%%->>
OZHEZ-[[[\\%5%==GLAMB]]]
E=4.323111111111111111111111111111111121
0.4E5Z<<<OBROB%/++11/$end
OZHEZ-[[[\\%5%==GLAMB]]]
E=4.323111111111111111111111111111111121
0.4E5Z<<<OBROB%/++11/$end
795デフォルトの名無しさん
2017/06/16(金) 16:26:19.45ID:I/6vJIh0 ICONIP
いきたいけど旅費がない
萌芽の発表は7月だし
いきたいけど旅費がない
萌芽の発表は7月だし
796デフォルトの名無しさん
2017/06/16(金) 16:33:36.33ID:KtCc4FWk 発表もしないのにいけるのか、ゆとり
797デフォルトの名無しさん
2017/06/16(金) 16:48:21.80ID:ixzzoI9b 斎藤康毅のゼロから作るDeep Learningはどの本を元に書いたのでしょうか?
798デフォルトの名無しさん
2017/06/16(金) 18:38:29.18ID:1eQLQexT http://www2.nhk.or.jp/hensei/program/p.cgi?area=001&date=2017-06-16&ch=21&eid=28823&f=758
今朝ポナンザの山本一成さんがNHKに出てた
今朝ポナンザの山本一成さんがNHKに出てた
799デフォルトの名無しさん
2017/06/16(金) 18:41:12.93ID:1eQLQexT800デフォルトの名無しさん
2017/06/16(金) 21:00:01.03ID:vkemD3MD >>771
黒?白(灰色)の間違いじゃないの
黒?白(灰色)の間違いじゃないの
801デフォルトの名無しさん
2017/06/16(金) 23:30:43.54ID:GEzsUpdW >>800
なるほど確かに脳に障害がありそうだ
なるほど確かに脳に障害がありそうだ
802デフォルトの名無しさん
2017/06/17(土) 07:16:47.10ID:/8BMQ3Rn803デフォルトの名無しさん
2017/06/17(土) 09:45:56.10ID:K9qvepHC >>801
そうなの?正常な脳にはどう見えるのかな
そうなの?正常な脳にはどう見えるのかな
804デフォルトの名無しさん
2017/06/17(土) 13:16:08.56ID:n6TLE+k2 しっかし、アホみたいな本が増えたな。
ニューラルネットワーク=バックプロパゲーションで解かないとダメみたいなアホがホントに増えた
ニューラルネットワーク=バックプロパゲーションで解かないとダメみたいなアホがホントに増えた
805デフォルトの名無しさん
2017/06/17(土) 20:03:30.75ID:8t/ZpRhM バックプロップ以外に実用性があるものってなに?
806デフォルトの名無しさん
2017/06/17(土) 20:51:18.42ID:Xcjg2E/o バックドロップかな。防犯に最適。
807デフォルトの名無しさん
2017/06/17(土) 21:21:33.08ID:jNo4H0U+ まあANN入門するような人には分かりやすくていいんじゃない?
808デフォルトの名無しさん
2017/06/17(土) 21:40:55.39ID:YTZvAUVb 人工勾配とか?
809デフォルトの名無しさん
2017/06/17(土) 22:16:18.94ID:ncuWnJKs ニューロファジーはオワコン?
810デフォルトの名無しさん
2017/06/17(土) 22:18:41.30ID:Ya2yzLrD ファジーは確率論そのものだからな
完全に吸収されハッテン的に解消された
完全に吸収されハッテン的に解消された
811デフォルトの名無しさん
2017/06/17(土) 22:28:09.02ID:d6cunnJW 誰もやってないのならやってみたら
812デフォルトの名無しさん
2017/06/18(日) 13:35:07.62ID:1x/qQ/cP kerasの日本語ドキュメントはバージョン1のまま
WARNING出て気付いた
keras使う人は最初から英語ドキュメント見て書いたほうが良い
WARNING出て気付いた
keras使う人は最初から英語ドキュメント見て書いたほうが良い
813デフォルトの名無しさん
2017/06/18(日) 13:49:36.29ID:JNJOh7ed TF1.2になったけど直接upgradeできないのか
814デフォルトの名無しさん
2017/06/18(日) 22:05:35.27ID:aNa0zBRT 誰も問題視してない気がするんだけど、ReLUレイヤーより前側にあるニューロンって一度変なところにハマったら永遠に学習されないこともあるんじゃないの?
これどうやって解決すりゃいいんだろ
これどうやって解決すりゃいいんだろ
815デフォルトの名無しさん
2017/06/18(日) 22:53:32.63ID:RQgPmra0 初期値変更してやり直し
816デフォルトの名無しさん
2017/06/18(日) 22:55:19.18ID:uGuVh2xb アクティベーションしない層なんて作るなよアホかw
817デフォルトの名無しさん
2017/06/18(日) 23:30:21.78ID:aNa0zBRT >>815
やっぱりそうするのか・・・・
やっぱりそうするのか・・・・
818デフォルトの名無しさん
2017/06/19(月) 00:59:17.47ID:L7VCydWs >>813
結局再インストール
結局再インストール
819デフォルトの名無しさん
2017/06/19(月) 01:45:23.93ID:60o+lpD5820デフォルトの名無しさん
2017/06/19(月) 05:20:41.61ID:HgBTAijm lreluとか簡単じゃん
821デフォルトの名無しさん
2017/06/19(月) 09:45:48.84ID:JRZAs/i8 >>814
あなた基本の基本ですよ
あなた基本の基本ですよ
822デフォルトの名無しさん
2017/06/19(月) 09:48:05.40ID:j8XPCuUX >>814
Mac信者とかジョブズ信者は変なところにハマったら永遠に学習されないパティーン
Mac信者とかジョブズ信者は変なところにハマったら永遠に学習されないパティーン
823デフォルトの名無しさん
2017/06/19(月) 12:00:30.55ID:0IiK5rsw 斎藤康毅著『ゼロから作るDeep Learning』
ですが、多変数関数の連鎖律の説明が全くないですね。
いいんですかね?
(5.13)の前ところで、多変数関数の連鎖律を説明する必要があるはずです。
ですが、多変数関数の連鎖律の説明が全くないですね。
いいんですかね?
(5.13)の前ところで、多変数関数の連鎖律を説明する必要があるはずです。
824デフォルトの名無しさん
2017/06/19(月) 12:21:01.89ID:JRZAs/i8 だれでも知ってるからな
825デフォルトの名無しさん
2017/06/19(月) 12:29:48.52ID:0IiK5rsw826デフォルトの名無しさん
2017/06/19(月) 12:34:57.92ID:0IiK5rsw827デフォルトの名無しさん
2017/06/19(月) 12:44:50.41ID:ys29Ylcz 書く人の自由。それだけ。
それでは次の話題どうぞ。
それでは次の話題どうぞ。
828デフォルトの名無しさん
2017/06/19(月) 12:48:40.61ID:0IiK5rsw 斎藤さんが線形代数の本を読んだことがないことは、
p.149の(5.14)を見ても分かります。
Wの成分の添え字の付け方が標準的じゃないです。
p.149の(5.14)を見ても分かります。
Wの成分の添え字の付け方が標準的じゃないです。
829デフォルトの名無しさん
2017/06/19(月) 15:05:28.75ID:O5LBcqZV 松坂君のアスペ日記
830デフォルトの名無しさん
2017/06/19(月) 16:19:54.04ID:JOgg+pf9 >>ID:0IiK5rsw
正直それは本質的にどうでもいい指摘
もう少しメリットをよく考えて指摘してね
正直それは本質的にどうでもいい指摘
もう少しメリットをよく考えて指摘してね
831デフォルトの名無しさん
2017/06/19(月) 16:48:54.09ID:oa7fQHyl くやしいのう
立ち読みでよく読まずにネットで本買うからだよ
立ち読みでよく読まずにネットで本買うからだよ
832デフォルトの名無しさん
2017/06/19(月) 16:51:26.18ID:oa7fQHyl833デフォルトの名無しさん
2017/06/19(月) 16:55:12.54ID:oa7fQHyl 白馬に乗った王子様ω
834デフォルトの名無しさん
2017/06/19(月) 16:56:05.76ID:yxzxzB1Z ハイヨーシルバー
835デフォルトの名無しさん
2017/06/19(月) 18:41:55.35ID:oa7fQHyl >もうおめーが執筆しろよ
ほんそれ
ほんそれ
836デフォルトの名無しさん
2017/06/19(月) 19:06:09.83ID:uUACxRGV ID:0IiK5rsw
それでは各論まとめて
結論とうぞ
それでは各論まとめて
結論とうぞ
837デフォルトの名無しさん
2017/06/19(月) 22:34:22.00ID:+3k0G+SI 何その本
外部のライブラリに頼らずpythonでゼロから作るとか
頭悪すぎだろワロタわ
外部のライブラリに頼らずpythonでゼロから作るとか
頭悪すぎだろワロタわ
838デフォルトの名無しさん
2017/06/19(月) 22:59:49.58ID:yo8gS+8N 斉藤何某の本の荒さがして、彼をこき下ろせればうれしい松坂君(ID:0IiK5rsw)
839デフォルトの名無しさん
2017/06/19(月) 23:33:42.41ID:LAADOK2/ 質問ですが、機械学習にmathematicaは向いていますか?
840デフォルトの名無しさん
2017/06/20(火) 01:17:23.06ID:KtZyi5C/ 何をさせたいのかよく分からない。
新手のアスペルガーかな?
新手のアスペルガーかな?
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 習政権、高市首相への態度硬化 台湾有事発言で連日非難 中国 ★11 [ぐれ★]
- 国内ホテル、既にキャンセルも 訪日客関連業界、事態見守る ★3 [蚤の市★]
- 日本損失1.7兆円に修正 中国渡航自粛の影響試算 [蚤の市★]
- 「どうしようもない」 ため息つくアジアの玄関口 中国の訪日自粛で−福岡市 [蚤の市★]
- 橋下徹氏 外務省幹部の訪中受け「口だけ番長」へ痛烈指摘 「喧嘩は日本の完敗…なんとかっこ悪い日本か」 [冬月記者★]
- 【外国人問題】小野田紀美担当相「不法就労や不法滞在は許さない」 [シャチ★]
- 【実況】博衣こよりのえちえち朝こよ🧪
- でもこんなに高市がやらかしても中東みたいにミサイル飛んできたりしないから東アジアってクッソ平和だよなwwwwwwwwwwwwwwww [271912485]
- 中国「高市が頭を下げて謝罪しない限り、絶対に許さない」 [329329848]
- ほかほかご飯にかけるとうまいもの一覧
- 🏡
- 「これが完成された醜い姿である>>1」←これなに?
