人工知能ディープラーニング機械学習のための数学 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん
2016/12/27(火) 12:09:04.01ID:MgmqZKtO 人工知能ディープラーニング機械学習のための数学
767デフォルトの名無しさん
2018/08/24(金) 05:08:08.95ID:c+mh3mBZ768デフォルトの名無しさん
2018/08/24(金) 05:59:54.55ID:/QW9Joy2 >>765
行列式の計算とかnumpyで楽チン。
行列式の計算とかnumpyで楽チン。
769デフォルトの名無しさん
2018/08/24(金) 06:29:31.37ID:dwzt+F5U >>766
>@ 右上の▽E(w)の定義を教えてください
損失関数Eの勾配
=δE/δw
>A なんで式の3行目のβにはtがくっついているのですか
学習の経過に従って、mとvの寄与度を調整して学習を安定させる
>@ 右上の▽E(w)の定義を教えてください
損失関数Eの勾配
=δE/δw
>A なんで式の3行目のβにはtがくっついているのですか
学習の経過に従って、mとvの寄与度を調整して学習を安定させる
770デフォルトの名無しさん
2018/08/24(金) 06:32:34.83ID:dwzt+F5U ∂E/∂w だった(偏微分記号)
771デフォルトの名無しさん
2018/08/24(金) 06:56:46.17ID:dwzt+F5U Aの補足
学習の初期段階でtが小さい時にmとvを調整して学習を安定させる効果がある。
この式の分母はtが大きくなるとほぼ1になりほとんど変化しなくなる。
学習の初期段階でtが小さい時にmとvを調整して学習を安定させる効果がある。
この式の分母はtが大きくなるとほぼ1になりほとんど変化しなくなる。
772デフォルトの名無しさん
2018/08/24(金) 09:07:03.58ID:1nJvNU0i >>766
BPから勉強しろ
BPから勉強しろ
773デフォルトの名無しさん
2018/08/24(金) 12:44:28.77ID:TTydjelR まさか今更微積や線形代数の復習する羽目になるとは
774デフォルトの名無しさん
2018/08/24(金) 12:58:10.52ID:6wpy6wRV775デフォルトの名無しさん
2018/08/24(金) 13:09:28.12ID:KZ7MNsvQ 1から始めればよい
776デフォルトの名無しさん
2018/08/25(土) 18:31:41.77ID:Dxvsv0A8 >>775
ありがとうございました!
下層からの誤差って具体的に何ですか?
https://i.imgur.com/y0O5glz.jpg
https://qiita.com/eijian/items/c947fb6b5e7a49858fb4
ありがとうございました!
下層からの誤差って具体的に何ですか?
https://i.imgur.com/y0O5glz.jpg
https://qiita.com/eijian/items/c947fb6b5e7a49858fb4
777デフォルトの名無しさん
2018/08/25(土) 22:43:44.04ID:xNcAdL4l >>776
その畳み込みの次にある層からの誤差
その畳み込みの次にある層からの誤差
778デフォルトの名無しさん
2018/08/26(日) 00:28:46.57ID:ZbBrZXXn 誤差逆伝播法では誤差が下層から上層に伝えられていく。誤差が具体的に何かと聞かれても、正解値と推定値の差を順次上層に向かって伝えられていく値としか答えようがない。
779デフォルトの名無しさん
2018/08/26(日) 00:35:44.23ID:czFWrRej >>777
例えば畳み込み層の前がプーリング層だった場合具体的に何が誤差になりますか?
例えば畳み込み層の前がプーリング層だった場合具体的に何が誤差になりますか?
780デフォルトの名無しさん
2018/08/26(日) 00:59:20.08ID:ZbBrZXXn 例えばMAXプーリング層では、下層から伝えられた誤差(偏微分値)を、順伝播時のMAXだったノードに伝えられる。MAX以外のノードには0が伝えられる。このようにそのノードの性質によって何が伝えられるかは変わってくる。
781デフォルトの名無しさん
2018/08/26(日) 02:15:36.01ID:czFWrRej >>780
そのプーリング 層の前が全結合層だった場合その層での誤差は何になるのでしょう?全結合層での入力層と隠れ層の間の重みとかですか?
そのプーリング 層の前が全結合層だった場合その層での誤差は何になるのでしょう?全結合層での入力層と隠れ層の間の重みとかですか?
782デフォルトの名無しさん
2018/08/26(日) 02:36:56.87ID:DVI2ghbE 東京大学理学部数学科に入って、数論幾何学を勉強したい。
でも脇見恐怖症だしなぁ・・・・・。
でも脇見恐怖症だしなぁ・・・・・。
783デフォルトの名無しさん
2018/08/26(日) 08:52:46.06ID:Eme/jpQ6 >>781
全結合部の出力層で誤差関数で誤差を求めて後は入力側に向かってその誤差を各ニューロン毎に重み掛け算して分配していく。
分配が終わったら誤差、学習率等を使って各重みを更新。間違ってたら指摘お願いします
全結合部の出力層で誤差関数で誤差を求めて後は入力側に向かってその誤差を各ニューロン毎に重み掛け算して分配していく。
分配が終わったら誤差、学習率等を使って各重みを更新。間違ってたら指摘お願いします
784デフォルトの名無しさん
2018/08/26(日) 09:59:18.87ID:1PWWH1+1 >>783
「重み掛け算」というのが違う。どのように分配していくかは、順伝播時ノードの処理によって変化する。足し算ノードなら何もかけずに逆伝播させるし、掛け算ノードであれば逆ノードの値を掛けて逆伝播させるし。
「重み掛け算」というのが違う。どのように分配していくかは、順伝播時ノードの処理によって変化する。足し算ノードなら何もかけずに逆伝播させるし、掛け算ノードであれば逆ノードの値を掛けて逆伝播させるし。
785デフォルトの名無しさん
2018/08/26(日) 10:05:05.45ID:1PWWH1+1 上記についてはこのページが詳しいかな
ttps://qiita.com/t-tkd3a/items/031c0a4dbf25fd2866a3
ttps://qiita.com/t-tkd3a/items/031c0a4dbf25fd2866a3
786デフォルトの名無しさん
2018/08/26(日) 12:56:14.32ID:lds9ox+q リアルプログラムでは学習した結果ってどうやって永続化してるの?
ファイルに書き出すの?
ファイルに書き出すの?
787デフォルトの名無しさん
2018/08/26(日) 13:49:35.32ID:1PWWH1+1 パラメータをファイルやDBに書き出します。
788デフォルトの名無しさん
2018/08/26(日) 13:55:39.86ID:u+wmgHES 基本的には各サンプルを通して損失関数を最小化するθ(重み)が学習成果なわけだから
そのθをファイルに保存する
途中からの場合θのファイルをロードする
モデルによって他にドロップアウトやRegularization値など自動で最適化してるハイパーパラメータがあればそれもファイルに保存する
そのθをファイルに保存する
途中からの場合θのファイルをロードする
モデルによって他にドロップアウトやRegularization値など自動で最適化してるハイパーパラメータがあればそれもファイルに保存する
789デフォルトの名無しさん
2018/08/26(日) 20:58:22.32ID:czFWrRej >>785
ありがとうございます!
ありがとうございます!
790デフォルトの名無しさん
2018/08/26(日) 23:47:20.20ID:lds9ox+q791デフォルトの名無しさん
2018/08/27(月) 12:03:01.85ID:Q4eMB8Ps 起動に15時間
シャットダウンに7時間
シャットダウンに7時間
792デフォルトの名無しさん
2018/09/01(土) 12:14:47.04ID:wGe/Loro CNNの畳み込み層でも活性化関数使うのが普通なんですか?
あと3次元フィルタを使ってますが、私のフィルタは2次元です。一度グレイスケールにしてからフィルタ適用しているので...この3次元フィルタを使うことの方が普通なのかな?
http://iup.2ch-library.com/i/i1931933-1535771487.jpeg
http://iup.2ch-library.com/i/i1931932-1535771487.jpeg
https://www.google.co.jp/amp/s/deepage.net/amp/deep_learning/2016/11/07/convolutional_neural_network
あと1層目でエッジ検出はわかるのですが、次の層でテクスチャ検出できるのが意味がわかりません、テクスチャって水玉模様とかそんなのですよね?
http://iup.2ch-library.com/i/i1931934-1535771654.jpeg
3次元フィルタを使うことに関しては特徴マップが何層もあるから?
あと3次元フィルタを使ってますが、私のフィルタは2次元です。一度グレイスケールにしてからフィルタ適用しているので...この3次元フィルタを使うことの方が普通なのかな?
http://iup.2ch-library.com/i/i1931933-1535771487.jpeg
http://iup.2ch-library.com/i/i1931932-1535771487.jpeg
https://www.google.co.jp/amp/s/deepage.net/amp/deep_learning/2016/11/07/convolutional_neural_network
あと1層目でエッジ検出はわかるのですが、次の層でテクスチャ検出できるのが意味がわかりません、テクスチャって水玉模様とかそんなのですよね?
http://iup.2ch-library.com/i/i1931934-1535771654.jpeg
3次元フィルタを使うことに関しては特徴マップが何層もあるから?
793デフォルトの名無しさん
2018/09/01(土) 23:34:32.22ID:gvHsCwll 全部チューニングの問題。その設定で精度のが上がれば、そのタスクにとっては「正しい」設定となる。
794デフォルトの名無しさん
2018/09/01(土) 23:35:20.62ID:gvHsCwll チューニングというより設計の問題かな。
795デフォルトの名無しさん
2018/09/02(日) 18:18:25.17ID:Gf+N3VgJ 色々深層学習のライブラリ弄ってて、モデルそのものを弄りたくなってきて調べたけど
既存の深層学習のライブラリ全部、iter中に計算速度稼ぐことメインに考えてて
気軽に独自モデル試せるようなもんじゃないんだな
ライブラリ使って新しいモデル作ってる研究者は低レベルで殴り合ってるわけだ
ソース見てもモジュール化されすぎてて全部理解するのには相当時間かかる
独自にモデル作ってる人らには頭が下がるわ
フルスクラッチでやったほうが実装そのものは相当楽だろ
でも今どきフルスクラッチでDNNの新モデル作ったところで研究者には見向きもされないんだろうな
既存の深層学習のライブラリ全部、iter中に計算速度稼ぐことメインに考えてて
気軽に独自モデル試せるようなもんじゃないんだな
ライブラリ使って新しいモデル作ってる研究者は低レベルで殴り合ってるわけだ
ソース見てもモジュール化されすぎてて全部理解するのには相当時間かかる
独自にモデル作ってる人らには頭が下がるわ
フルスクラッチでやったほうが実装そのものは相当楽だろ
でも今どきフルスクラッチでDNNの新モデル作ったところで研究者には見向きもされないんだろうな
796デフォルトの名無しさん
2018/09/03(月) 01:01:43.69ID:esF28k94 そうでもない
がんがれ
がんがれ
797デフォルトの名無しさん
2018/09/07(金) 20:14:05.61ID:bOuttf63798デフォルトの名無しさん
2018/09/08(土) 17:42:16.54ID:RrQSE86D 似非サイエンス0でやってた
799デフォルトの名無しさん
2018/10/06(土) 11:09:34.88ID:KmIbUzui NHK教育を見て56088倍賢く三連休
http://nhk2.5ch.net/test/read.cgi/liveetv/1538780245/
http://nhk2.5ch.net/test/read.cgi/liveetv/1538780245/
800デフォルトの名無しさん
2018/10/08(月) 11:30:39.16ID:+5qyKWRv801デフォルトの名無しさん
2018/10/08(月) 13:54:24.56ID:Pg4k0kTf memorandum
802デフォルトの名無しさん
2018/10/24(水) 17:33:34.15ID:uzzb7okB 既存の数学的アプローチでは汎用人工知能は無理。
新しい数学を創造する必要がある。
新しい数学を創造する必要がある。
803デフォルトの名無しさん
2018/10/24(水) 19:03:25.41ID:+UZVhUuu 人間の脳の学習能率に対して、ディープラーニングでは人間ではあり得ない量のデータを力技で教え込んでいるという現状を考えれば既存理論では実現不可能なのは明白だな
根本的にやってることが違う
根本的にやってることが違う
804デフォルトの名無しさん
2018/10/24(水) 19:23:11.47ID:Tp5xd7NK 数学は万物を定量化して表すもの
数学に出来ないのはヒルベルトのように、解く方法が解らない問題と
世界の誰も未だに気づいていない問題
数学に出来ないのはヒルベルトのように、解く方法が解らない問題と
世界の誰も未だに気づいていない問題
805デフォルトの名無しさん
2018/10/24(水) 20:38:49.03ID:JHmeQiWz NS方程式w
806デフォルトの名無しさん
2018/10/25(木) 01:53:03.16ID:DXNVkP/m そのうち人工知能の性能や危険性を監査する方法が必要になる
監査もAIにして相互に進化させる
人間のはるか上を行くAIになりそう
監査もAIにして相互に進化させる
人間のはるか上を行くAIになりそう
808デフォルトの名無しさん
2018/10/25(木) 11:25:06.41ID:5Cy/pQlU 単にラグランジュとか●次スプラインとかで全点通す多項式作るようにしてるんだろうけど
こういうのって機械学習でも同じパラメータが出現するのだろうか
https://pbs.twimg.com/media/Dp8U1ioVYAEsXf3.jpg
https://twitter.com/yori_shirou/status/1053611678292570113
https://twitter.com/yori_shirou/status/1053611678292570113/photo/1
(そういう学習させればそうなるんだろう)
https://twitter.com/5chan_nel (5ch newer account)
こういうのって機械学習でも同じパラメータが出現するのだろうか
https://pbs.twimg.com/media/Dp8U1ioVYAEsXf3.jpg
https://twitter.com/yori_shirou/status/1053611678292570113
https://twitter.com/yori_shirou/status/1053611678292570113/photo/1
(そういう学習させればそうなるんだろう)
https://twitter.com/5chan_nel (5ch newer account)
809デフォルトの名無しさん
2018/11/27(火) 10:18:08.02ID:Rh+mKowB NNのパラメータが十分多ければSGDでも多項式時間で最適解に収束する事が証明されたな
https://arxiv.org/abs/1811.03962
https://arxiv.org/abs/1811.03962
810デフォルトの名無しさん
2018/11/30(金) 20:30:28.58ID:1rBmpsWQ 十分多ければwww
811デフォルトの名無しさん
2018/11/30(金) 22:07:26.54ID:aXieu+F/ 自然な仮定だろ?
812デフォルトの名無しさん
2018/12/01(土) 12:32:12.07ID:ddsFX+Ib ε-δ論法での「十分小さければ」みたいによくある表現だよね
813デフォルトの名無しさん
2018/12/01(土) 14:53:57.91ID:ESkZNxmJ t分布で自由度が十分大きければ正規分布になるとか、割とあちこちで十分大きければ論法は使われる
「十分大きい」というのが現実的なサイズなら何の問題もないし非現実的なサイズなら机上の空論というだけのこと
「十分大きい」というのが現実的なサイズなら何の問題もないし非現実的なサイズなら机上の空論というだけのこと
814デフォルトの名無しさん
2018/12/01(土) 18:36:48.82ID:vZu4rQev 誤差曲面には極小値や鞍点が無数にあるにも関わらず、SGDで最適解に辿り着けてしまうのは自明では無い
経験的に知られていたが謎だった事が理論的に解明された事に価値がある
あと(指数ではなく)多項式時間と分かった事も大きいと思う
経験的に知られていたが謎だった事が理論的に解明された事に価値がある
あと(指数ではなく)多項式時間と分かった事も大きいと思う
815デフォルトの名無しさん
2018/12/05(水) 18:35:39.05ID:kX9gokKe816デフォルトの名無しさん
2018/12/12(水) 22:46:51.99ID:0lKVJ1Zp 初歩的なもので申し訳ありませんが
ゼロから作るDeep Learningの中の数式の変形で以下のような変形がありました。
どう変形したらこうなるのはわからないのですがどなたか教えていただけないでしょうか?
c exp(x) = exp(x + log c)
ゼロから作るDeep Learningの中の数式の変形で以下のような変形がありました。
どう変形したらこうなるのはわからないのですがどなたか教えていただけないでしょうか?
c exp(x) = exp(x + log c)
817デフォルトの名無しさん
2018/12/12(水) 22:56:13.04ID:+Sf0mSLh 定義から追っていけばわかるだろ?
expてのはeを何回掛けたか
logはその逆
exp(log c) = cはcが特殊な値でない限り常になりたつ。
exp(a)exp(b)はeをa回掛けたものにさらにeをb回掛けることになる
これはexp(a+b)に等しい
expてのはeを何回掛けたか
logはその逆
exp(log c) = cはcが特殊な値でない限り常になりたつ。
exp(a)exp(b)はeをa回掛けたものにさらにeをb回掛けることになる
これはexp(a+b)に等しい
818デフォルトの名無しさん
2018/12/12(水) 23:11:36.04ID:0lKVJ1Zp819デフォルトの名無しさん
2018/12/12(水) 23:22:27.88ID:1Fc61En1 ln 左辺
= ln (c * e^x)
= ln c + ln e^x
= ln c + x
ln 右辺
= ln e^(x + ln c)
= x + ln c
高校の算数で分かる
= ln (c * e^x)
= ln c + ln e^x
= ln c + x
ln 右辺
= ln e^(x + ln c)
= x + ln c
高校の算数で分かる
821デフォルトの名無しさん
2018/12/13(木) 09:30:18.60ID:MB2eDcb0 >>816
exp(x + log c)=exp(x)*exp(logc) 指数法則:exp(x+y)=exp(x)exp(y)
=exp(x)*c expとlogは互いに逆関数なので順番に作用させると元に戻る:x=exp(logx)
exp(x + log c)=exp(x)*exp(logc) 指数法則:exp(x+y)=exp(x)exp(y)
=exp(x)*c expとlogは互いに逆関数なので順番に作用させると元に戻る:x=exp(logx)
822デフォルトの名無しさん
2018/12/13(木) 12:19:59.72ID:zFPTCGev c exp(x) = exp(x + log(c))
log(c exp(x)) = log(exp(x + log(c)))
log(c) + log(exp(x)) = log(exp(x + log(c)))
log(c) + x = x + log(c)
log(c exp(x)) = log(exp(x + log(c)))
log(c) + log(exp(x)) = log(exp(x + log(c)))
log(c) + x = x + log(c)
823デフォルトの名無しさん
2018/12/17(月) 22:36:41.36ID:hRfkLohO ゼロから作るDeep Learningの中のAffineレイヤの部分で
行列の積
X・W
をXで微分したものが
Wの転置行列
になっており、
X・W
をWで微分したものが
Xの転置になっていますがこの辺の説明がないためなぜそうなるのかわかりませんでした。
この辺は数学のどの部分をやれば理解できますでしょうか?いい参考書があれば教えてほしいです。
後同じAffineレイヤのバッチ対応版で、バイアス部分がすべてのバッチ分の加算になっていますが
これってどう解釈すればいいのでしょうか?
いまいちなぜすべてを加算するのか理解できませんでした。
行列の積
X・W
をXで微分したものが
Wの転置行列
になっており、
X・W
をWで微分したものが
Xの転置になっていますがこの辺の説明がないためなぜそうなるのかわかりませんでした。
この辺は数学のどの部分をやれば理解できますでしょうか?いい参考書があれば教えてほしいです。
後同じAffineレイヤのバッチ対応版で、バイアス部分がすべてのバッチ分の加算になっていますが
これってどう解釈すればいいのでしょうか?
いまいちなぜすべてを加算するのか理解できませんでした。
824デフォルトの名無しさん
2018/12/18(火) 00:08:54.26ID:Eo+uoiII 線形代数
825デフォルトの名無しさん
2018/12/18(火) 11:30:12.35ID:/M0/bFGF 物理
826デフォルトの名無しさん
2018/12/18(火) 13:30:30.43ID:Y4LQpz29 魔法
827デフォルトの名無しさん
2018/12/18(火) 13:50:22.43ID:DOEC5j1K チート能力
828デフォルトの名無しさん
2018/12/18(火) 14:11:41.15ID:lzU2ET1j ggr能力
829デフォルトの名無しさん
2018/12/18(火) 15:55:00.86ID:7JS3qwaJ 行列の積が分かれば微分するだけなのだがw
830デフォルトの名無しさん
2018/12/18(火) 15:56:23.56ID:fQ2wN9mx テンソルやろ
831デフォルトの名無しさん
2018/12/18(火) 17:38:07.86ID:Mqjic+u0 アホやろ
832デフォルトの名無しさん
2018/12/18(火) 17:39:32.22ID:owoWX2Rf アホは読めないだろ
833デフォルトの名無しさん
2018/12/18(火) 20:42:10.22ID:w60GoDWR834デフォルトの名無しさん
2018/12/19(水) 19:39:29.81ID:hcWIkGDA DeepLearningを試しにやってみたいけど
Chainerあたりが手軽なの?
ちなみに文系の馬鹿です。
回帰分析とSVMを
Pythonで試したことあります。
Chainerあたりが手軽なの?
ちなみに文系の馬鹿です。
回帰分析とSVMを
Pythonで試したことあります。
835デフォルトの名無しさん
2018/12/19(水) 22:00:08.49ID:EddF3XVK そんだけやってればこのスレのほとんどの人より先に行ってるぞ
836デフォルトの名無しさん
2018/12/20(木) 11:07:48.66ID:j9ekUJ01 ほんとだもう姿が見えないw
837デフォルトの名無しさん
2018/12/23(日) 20:43:59.69ID:AV3blzZs ディープラーニングやろうとしたらこのくらいの性能のPCは必須?
http://masagutti.hatenablog.com/entry/new_pc
http://masagutti.hatenablog.com/entry/new_pc
838デフォルトの名無しさん
2018/12/24(月) 11:08:35.14ID:VHPkyyz+839デフォルトの名無しさん
2018/12/24(月) 11:14:29.35ID:YXqLjtll >>838
無料?
無料?
840デフォルトの名無しさん
2018/12/24(月) 11:18:32.15ID:VHPkyyz+841デフォルトの名無しさん
2018/12/24(月) 11:18:38.69ID:vT24CsmW PCだって無料じゃないんやで
842デフォルトの名無しさん
2018/12/30(日) 18:20:09.19ID:BP599Ljk アルファ碁ゼロってどっかで対戦できる?
843デフォルトの名無しさん
2018/12/30(日) 20:45:03.59ID:PVnIIL/g >>838
どのクラウドがいいの?
どのクラウドがいいの?
844デフォルトの名無しさん
2019/01/04(金) 00:56:54.65ID:WfC+XEH3 >>843
用途による
一般用途はAmazon、サクラ、google、Azure等
あとはサービス連携
ワトソンとか使いたいならIBM Bluemix
TPUで爆速機械学習とかならGoogle Cloud Platform
個人的な意見で申し訳ないが
使いやすいのはamazon aws
価格が安いのはGoogle、IBM
サクラは官公庁とかで従量課金NGとかでも相談に乗ってくれる
用途による
一般用途はAmazon、サクラ、google、Azure等
あとはサービス連携
ワトソンとか使いたいならIBM Bluemix
TPUで爆速機械学習とかならGoogle Cloud Platform
個人的な意見で申し訳ないが
使いやすいのはamazon aws
価格が安いのはGoogle、IBM
サクラは官公庁とかで従量課金NGとかでも相談に乗ってくれる
845デフォルトの名無しさん
2019/01/04(金) 11:37:58.62ID:7pi2aX1x846デフォルトの名無しさん
2019/01/04(金) 11:49:22.59ID:vo1XafK4 値段はAwsでもそう変わらんちゃう
Googleはちょい安そう
Googleはちょい安そう
847デフォルトの名無しさん
2019/01/04(金) 17:09:49.70ID:ByJNYGiG 本業の問題解決にディープラーニングを利用するかディープラーニング自体を本業とするかでクラウド使うべきかは変わる
GPUぶん回すのは学習時ぐらいなので前者なら実際は学習以外の仕事が大半を占めるのでクラウドの方が安く、後者なら学習させまくるのだろうからハード買った方が安い
GPUぶん回すのは学習時ぐらいなので前者なら実際は学習以外の仕事が大半を占めるのでクラウドの方が安く、後者なら学習させまくるのだろうからハード買った方が安い
848デフォルトの名無しさん
2019/01/04(金) 20:33:58.41ID:2CE/kmBd849デフォルトの名無しさん
2019/01/05(土) 20:59:49.07ID:DJKkY02/ さくらの高火力コンピューティングとかめちゃ高いよな。
あれ誰が使うんだろ?
あれ誰が使うんだろ?
850デフォルトの名無しさん
2019/01/06(日) 08:27:02.11ID:sqll98Te >>848
大量のデータって数量的には何TB?
大量のデータって数量的には何TB?
851デフォルトの名無しさん
2019/01/06(日) 19:18:45.26ID:r6TnJvb+ >>845
利用料金、これからの課題やで
機械学習はこれからビジネスの世界になる
機械学習で精度はあがっても、その精度を出すためのコストが問題されるようになる
大半の用途ではコストがかさんで機械学習をする意味がない
(コストにはデータを集めるためのコストも含含まれる)
もう少ししたら、これが問題視されるようになる
利用料金、これからの課題やで
機械学習はこれからビジネスの世界になる
機械学習で精度はあがっても、その精度を出すためのコストが問題されるようになる
大半の用途ではコストがかさんで機械学習をする意味がない
(コストにはデータを集めるためのコストも含含まれる)
もう少ししたら、これが問題視されるようになる
852デフォルトの名無しさん
2019/01/06(日) 19:56:09.20ID:/LWkk3mV >>850
1TBのディスクはAmazon EBSの場合、帯域幅にもよるけど月当たり数千円から数万円。どのくらいを大容量というかは学習とのバランスによる。
GPUはEC2 P3でV100を使って一番安いオプションで24時間使い続けたとして月額25万くらい。実際にはこの1/3くらいだから月8万円としよう。
そうするとランニングコストのうち10%前後はストレージの容量に払うことになる。これを計算機コストに置き換えるとクラウドのストレージが如何に高いか分かる。
V100搭載の計算機は200万円くらい、かつ24時間回しっ放しだと電気代が月々数万円かかる。かりに1/3だとしても1〜2万円くらいだろうか。
※このクラスだと納期に最低2週間、必要なら電源工事、さらには固定資産税が掛かるが今は置いておこう。
大雑把な計算だと、GPU計算機の購入費用はクラウド換算では2.5年間くらいに相当する。2.5年もすると計算機の大幅な性能向上も見込まれるので、クラウドの有用性が分かるだろう。
一方1TBのSSDが2万円切る中、同じ容量のストレージをクラウド上で保持しようと思うと、1〜3ヶ月程度しか持たない。もちろんサービス用の高いストレージを使うのもありだが学習用途なのであまり意味がない。
1TBのディスクはAmazon EBSの場合、帯域幅にもよるけど月当たり数千円から数万円。どのくらいを大容量というかは学習とのバランスによる。
GPUはEC2 P3でV100を使って一番安いオプションで24時間使い続けたとして月額25万くらい。実際にはこの1/3くらいだから月8万円としよう。
そうするとランニングコストのうち10%前後はストレージの容量に払うことになる。これを計算機コストに置き換えるとクラウドのストレージが如何に高いか分かる。
V100搭載の計算機は200万円くらい、かつ24時間回しっ放しだと電気代が月々数万円かかる。かりに1/3だとしても1〜2万円くらいだろうか。
※このクラスだと納期に最低2週間、必要なら電源工事、さらには固定資産税が掛かるが今は置いておこう。
大雑把な計算だと、GPU計算機の購入費用はクラウド換算では2.5年間くらいに相当する。2.5年もすると計算機の大幅な性能向上も見込まれるので、クラウドの有用性が分かるだろう。
一方1TBのSSDが2万円切る中、同じ容量のストレージをクラウド上で保持しようと思うと、1〜3ヶ月程度しか持たない。もちろんサービス用の高いストレージを使うのもありだが学習用途なのであまり意味がない。
853デフォルトの名無しさん
2019/01/06(日) 19:56:29.21ID:huSbSCC8 だからGANsが流行ってるんだろ??
854デフォルトの名無しさん
2019/01/06(日) 21:06:59.54ID:r6TnJvb+ >>852
コストは掛かるのはわかるが、それによって
なにが得られるかだよな
コストを掛けた以上の利益が得られなければやる意味がない
まあ今はまだ検証段階でそこまで考えられる所まで来てないんだろうけど
いいよな。結果が出なくても良い段階っていうのはw
コストは掛かるのはわかるが、それによって
なにが得られるかだよな
コストを掛けた以上の利益が得られなければやる意味がない
まあ今はまだ検証段階でそこまで考えられる所まで来てないんだろうけど
いいよな。結果が出なくても良い段階っていうのはw
855デフォルトの名無しさん
2019/01/06(日) 21:07:13.61ID:sqll98Te856デフォルトの名無しさん
2019/01/26(土) 14:56:07.98ID:yVAkGzul 不正統計ω
857デフォルトの名無しさん
2019/01/26(土) 15:04:17.59ID:b14plJpJ 不正統計δ
858デフォルトの名無しさん
2019/01/27(日) 16:49:33.49ID:jpJeg/KH 仕事で国の統計データ使うこと多いのに
マジで勘弁して欲しいぞ
マジで勘弁して欲しいぞ
859デフォルトの名無しさん
2019/01/27(日) 17:23:27.82ID:G3HzVCxI 計算し直せばいいだけだろ。他責なんだから
860デフォルトの名無しさん
2019/01/27(日) 17:55:29.03ID:jpJeg/KH 計算できるようにデータを
纏めるのが大変なんじゃ!
纏めるのが大変なんじゃ!
861デフォルトの名無しさん
2019/01/27(日) 17:57:03.48ID:DIPYZuxb この地域にはこういう属性の人が多いからこういう戦略で行こうとビジネスの意思決定に使ってた国のデータが嘘だった場合、
これからのことは正しいデータで計算し直せば済むが過去の莫大な機会損失も補償してくれなければ意味がない
これからのことは正しいデータで計算し直せば済むが過去の莫大な機会損失も補償してくれなければ意味がない
862デフォルトの名無しさん
2019/01/27(日) 18:26:06.36ID:G3HzVCxI 以後、気をつけるように
863デフォルトの名無しさん
2019/01/27(日) 18:48:58.10ID:G3HzVCxI 国相手に損害賠償訴訟を起こす手もあるぞ
864デフォルトの名無しさん
2019/01/28(月) 01:34:18.93ID:/GIsMIPT ディープラーニング×暗号通貨
http://masagutti.hatenablog.com/entry/bitcoin_raspberrypi
http://masagutti.hatenablog.com/entry/bitcoin_raspberrypi
865デフォルトの名無しさん
2019/01/28(月) 12:43:29.94ID:ji//xT0N ほんとにまともなAIなら
学習の結果として
不正な統計データが入力されたら
受け付けずに突っ返す動作にするのが理想だな
学習の結果として
不正な統計データが入力されたら
受け付けずに突っ返す動作にするのが理想だな
866デフォルトの名無しさん
2019/01/28(月) 15:04:36.07ID:P7GqkI/F >>865
それは不正統計を判定するために学習させた場合であって普通は誰もそんなもの作らないから
それは不正統計を判定するために学習させた場合であって普通は誰もそんなもの作らないから
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【サッカー】U-17日本代表、激闘PK戦制す 北朝鮮撃破で6大会ぶり8強入り U17W杯 [久太郎★]
- 日本行き空路49万件キャンセル 中国自粛呼びかけ 日本行きチケット予約の約32%に相当 ★3 [ぐれ★]
- 【サッカー】日本代表、ボリビアに3発快勝 森保監督通算100試合目を飾る…鎌田、町野、中村がゴール [久太郎★]
- XやChatGPTで広範囲の通信障害 投稿や閲覧できず [蚤の市★]
- 【芸能】日中関係悪化でエンタメ業界に大ダメージ… JO1の中国でのイベント中止、邦画は公開延期、STARTOアイドルへの影響も [冬月記者★]
- 【インバウンド】中国人観光客の日本での消費額は年間約2兆円超…中国政府は公務員の出張取り消し [1ゲットロボ★]
- 青銅聖闘士のパンチは音速←わかる 白銀聖闘士はその数倍←まぁわかる 黄金聖闘士は光速←は?
- 【画像】Perfumeあ~ちゃんの結婚相手の“一般人”がこちらwwwwwwwwwwwwwwwwwwwwwwwwwww
- 非日常すぎるエロ漫画は抜けないの法則
- 【悲報】ワイの母親、アンチ秋篠宮家だった😨 [279254606]
- 4時だから窓から4回ちんこ出した
- (´;ω;`) NISA・・
