人工知能ディープラーニング機械学習のための数学 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん
2016/12/27(火) 12:09:04.01ID:MgmqZKtO 人工知能ディープラーニング機械学習のための数学
683デフォルトの名無しさん
2018/07/04(水) 22:08:13.11ID:gFgZc5FG Q8L
684武闘派閥
2018/07/05(木) 16:22:05.13ID:VJODoSmh >>1
どういてお前らはこのまま、
【人工知能長者に喰いもんにされる道】
を《《《自らchoice》》》》すんのか教えて?
"""俺様が、
【【世界の最高税率を統一する方法!w】】解明してやった↓↓"""のに
マジ方法↓
マジで【小説掲示板】(下記↓URL)で《《《絶賛》》》された(←※『マジ』だからな?)俺様の↓↓↓↓↓
『『『『戦争をなくして【世界を豊かに】w までwする《《《超現実的》》》』』』な方法wwwww↓↓↓↓↓↓↓
本当に簡単な話し。こういう事。
人類社会のルールは現在、現実的に“弱肉強食”である。
ならば、(人類は、)それを、「分数の計算」の様な要領で(、いわば、「横流し」的に)己が理想とする、
(要は、↓)
"平等・公平・公正”的なルール(仮)に
↓↓↓↓↓
【(ルール)変更】してしまえばいいの。w
(『お前らの為』だぞ?w(←※【【戦争でも起きてさっさと死てえぜ!(w)と思ってるヤツら以外】】なw))
↑↑↑↑↑↑↑↑↑(は、)
道理にかない、強者も弱者も損をしない(←※実際は【超、得】するw↓)から(それらが
(つまり、(それを)【余裕】)で納得する事で)それが(【余裕】で)成立し、世界から「威力」を廃するから《《《《戦争もなくなる》》》》
んだよwwwww
ちなみに【超、得】するのは、(この理論は、それ(ルール変更)から行くと、)「世界の最高税率を統一する事で全世界が豊かに!」なるからだよwwww俺様は【マジ超天才】だからwwwwwwwwwww
↓↓↓↓↓↓↓↓↓↓
http://www.kakiko.info/bbs4/index.cgi?mode=view&no=10099&p=8
(※↑「 小説カキコ掲示板 長文 戦争をなくす方法 希代世界一位 」
【検索】でも出るが↑これで開くと順番どおり表示される(※順番どおりに見ないと(俺様の理論は【マジ超一流】だが『『威力』』が半減する)(←※「ストーリーがあるから」))
どういてお前らはこのまま、
【人工知能長者に喰いもんにされる道】
を《《《自らchoice》》》》すんのか教えて?
"""俺様が、
【【世界の最高税率を統一する方法!w】】解明してやった↓↓"""のに
マジ方法↓
マジで【小説掲示板】(下記↓URL)で《《《絶賛》》》された(←※『マジ』だからな?)俺様の↓↓↓↓↓
『『『『戦争をなくして【世界を豊かに】w までwする《《《超現実的》》》』』』な方法wwwww↓↓↓↓↓↓↓
本当に簡単な話し。こういう事。
人類社会のルールは現在、現実的に“弱肉強食”である。
ならば、(人類は、)それを、「分数の計算」の様な要領で(、いわば、「横流し」的に)己が理想とする、
(要は、↓)
"平等・公平・公正”的なルール(仮)に
↓↓↓↓↓
【(ルール)変更】してしまえばいいの。w
(『お前らの為』だぞ?w(←※【【戦争でも起きてさっさと死てえぜ!(w)と思ってるヤツら以外】】なw))
↑↑↑↑↑↑↑↑↑(は、)
道理にかない、強者も弱者も損をしない(←※実際は【超、得】するw↓)から(それらが
(つまり、(それを)【余裕】)で納得する事で)それが(【余裕】で)成立し、世界から「威力」を廃するから《《《《戦争もなくなる》》》》
んだよwwwww
ちなみに【超、得】するのは、(この理論は、それ(ルール変更)から行くと、)「世界の最高税率を統一する事で全世界が豊かに!」なるからだよwwww俺様は【マジ超天才】だからwwwwwwwwwww
↓↓↓↓↓↓↓↓↓↓
http://www.kakiko.info/bbs4/index.cgi?mode=view&no=10099&p=8
(※↑「 小説カキコ掲示板 長文 戦争をなくす方法 希代世界一位 」
【検索】でも出るが↑これで開くと順番どおり表示される(※順番どおりに見ないと(俺様の理論は【マジ超一流】だが『『威力』』が半減する)(←※「ストーリーがあるから」))
685デフォルトの名無しさん
2018/07/06(金) 16:38:26.70ID:m/tWcgK6 chainer遅すぎワロチ
686デフォルトの名無しさん
2018/07/15(日) 20:07:01.94ID:jrWwyMUz numpy配列の様々な変換しまくった
行列の値って中身確認しても意味あるのかな、
計算が進行して意図した.shapeになっていれば
コードは間違えてないって判断でいいのだろうか?
数値の羅列を見ても計算が本当にミスっていないか
判断がつかんわ。
行列の値って中身確認しても意味あるのかな、
計算が進行して意図した.shapeになっていれば
コードは間違えてないって判断でいいのだろうか?
数値の羅列を見ても計算が本当にミスっていないか
判断がつかんわ。
687デフォルトの名無しさん
2018/07/16(月) 10:10:06.49ID:Tl1DHPio 普通見るやろ
688デフォルトの名無しさん
2018/07/16(月) 10:56:54.37ID:1RDPQ2ba 関係が深いのはTAUBVCのどれ?
何処?を勉強すれば役に立ちますか?
何処?を勉強すれば役に立ちますか?
689デフォルトの名無しさん
2018/07/16(月) 11:23:32.35ID:Tl1DHPio 全部関係が深い
っていうか数学をAとかBとか分けるのがそもそも頭沸いてる証拠
っていうか数学をAとかBとか分けるのがそもそも頭沸いてる証拠
690デフォルトの名無しさん
2018/07/16(月) 11:50:10.35ID:1RDPQ2ba >>689
そうですね、聞き方が間違っていました。
オブジェクト配列と変数配列の空間座標の写像変換アルゴリズムにおいて
ベクトル行列の微分積分がよく分からないので復習のための
参考書籍かページを紹介して頂けませんか?
そうですね、聞き方が間違っていました。
オブジェクト配列と変数配列の空間座標の写像変換アルゴリズムにおいて
ベクトル行列の微分積分がよく分からないので復習のための
参考書籍かページを紹介して頂けませんか?
691デフォルトの名無しさん
2018/07/16(月) 12:14:37.34ID:1RDPQ2ba >>681さんの
>高等数学をアプリ化するとプロ電卓しかないのか?
>アルゴリズム辞典みたいなのを探しているんだけど
に近いものを探しています。
例えば、ハイパボリックタンジェント関数の実装プログラムなど
検索しても以下のような説明書レベルしか分からないのです。
https://support.minitab.com/ja-jp/minitab/18/help-and-how-to/calculations-data-generation-and-matrices/calculator/calculator-functions/trigonometry-calculator-functions/hyperbolic-tangent-function/
用途
ハイパボリック関数は、電気輸送(ケーブルや導線の長さ、重量、応力を計算する)、上部構造(吊橋の弾性曲線とたわみを計算する)、
および航空宇宙(航空機の理想的な表面被膜を判断する)など、
工学技術の分野において多くの応用に役立っています。
統計では、逆ハイパボリックサインがJohnson変換で使用され、
正規分布に従うようにデータを変換します。
工程能力分析によっては、正規性を仮定する必要があります。
>高等数学をアプリ化するとプロ電卓しかないのか?
>アルゴリズム辞典みたいなのを探しているんだけど
に近いものを探しています。
例えば、ハイパボリックタンジェント関数の実装プログラムなど
検索しても以下のような説明書レベルしか分からないのです。
https://support.minitab.com/ja-jp/minitab/18/help-and-how-to/calculations-data-generation-and-matrices/calculator/calculator-functions/trigonometry-calculator-functions/hyperbolic-tangent-function/
用途
ハイパボリック関数は、電気輸送(ケーブルや導線の長さ、重量、応力を計算する)、上部構造(吊橋の弾性曲線とたわみを計算する)、
および航空宇宙(航空機の理想的な表面被膜を判断する)など、
工学技術の分野において多くの応用に役立っています。
統計では、逆ハイパボリックサインがJohnson変換で使用され、
正規分布に従うようにデータを変換します。
工程能力分析によっては、正規性を仮定する必要があります。
692デフォルトの名無しさん
2018/07/16(月) 14:26:24.31ID:9aUIy4l0 えーと何か聞きたいのかマウントしたいのかどっち?
693デフォルトの名無しさん
2018/07/16(月) 15:03:32.59ID:PLRcL5uS694デフォルトの名無しさん
2018/07/16(月) 15:06:28.19ID:OH0DCCOT >>691
意味不明、頭悪すぎ、お前には無理
意味不明、頭悪すぎ、お前には無理
695デフォルトの名無しさん
2018/07/21(土) 13:25:16.60ID:0jgxJn0i 人工知能なんて数学できなくても問題ないだろ
696デフォルトの名無しさん
2018/07/21(土) 13:31:58.05ID:5j+gXKC+ DLできなくても問題ないだろ
697デフォルトの名無しさん
2018/07/21(土) 15:44:58.70ID:4GfbIlHB PG出来なくても問題ない
698デフォルトの名無しさん
2018/07/21(土) 16:22:45.31ID:JzufiDOi699デフォルトの名無しさん
2018/07/21(土) 23:57:57.78ID:OAaPo88n https://www.amazon.co.jp/dp/B07D57DM21
http://www.saiensu.co.jp/?page=magazine&magazine_id=1
20日発売なのに新品はもう品切れ
http://www.saiensu.co.jp/?page=magazine&magazine_id=1
20日発売なのに新品はもう品切れ
700デフォルトの名無しさん
2018/07/28(土) 12:38:17.57ID:kGN2HSKI 数式の縦ベクトルの解釈にいつも迷う。
縦ベクトルってnumpyで定義するとどうなるの?
np.array([1, 2, 3])なのか、
np.array([ [1], [2], [3] ])なのか
縦ベクトルnp.array([1, 2, 3]).T は元のベクトルと全く
同じになるっぽいね。
縦ベクトルってnumpyで定義するとどうなるの?
np.array([1, 2, 3])なのか、
np.array([ [1], [2], [3] ])なのか
縦ベクトルnp.array([1, 2, 3]).T は元のベクトルと全く
同じになるっぽいね。
701デフォルトの名無しさん
2018/07/28(土) 12:46:37.37ID:XViFlA6N 縦の物は横にしない
702デフォルトの名無しさん
2018/07/28(土) 13:41:32.50ID:39ICzHjE 縦か横かは関係ないというか自分がどう見るかで変わる
それより大事なのは右から掛けるか左から掛けるか
shapeで自信がないひとは
適当な正方行列を掛けてみれば良い
それより大事なのは右から掛けるか左から掛けるか
shapeで自信がないひとは
適当な正方行列を掛けてみれば良い
703デフォルトの名無しさん
2018/07/28(土) 13:43:51.13ID:39ICzHjE >>700
君が期待してるのはこっちだろ
>>> np.array([[1, 2, 3]])
array([[1, 2, 3]])
>>> np.array([[1, 2, 3]]).T
array([[1],
[2],
[3]])
君が期待してるのはこっちだろ
>>> np.array([[1, 2, 3]])
array([[1, 2, 3]])
>>> np.array([[1, 2, 3]]).T
array([[1],
[2],
[3]])
704デフォルトの名無しさん
2018/07/28(土) 13:45:26.27ID:mGJgyyGV お前らもうディープラーニングの気持ちわかるの?
こういうことしたいなーって思ったらホイホイとネットワーク組んでおし動いたってなるの?
こういうことしたいなーって思ったらホイホイとネットワーク組んでおし動いたってなるの?
705デフォルトの名無しさん
2018/07/28(土) 14:20:12.16ID:kGN2HSKI >>703
ああそういうことか、ありがとう。
Conv層の入力画像が3チャンネルの場合、
フィルタ行列は3チャンネル別々のものが生成されるの?
それとも同じフィルタ行列を3チャンネルにブロードキャスト
するの?
ああそういうことか、ありがとう。
Conv層の入力画像が3チャンネルの場合、
フィルタ行列は3チャンネル別々のものが生成されるの?
それとも同じフィルタ行列を3チャンネルにブロードキャスト
するの?
706デフォルトの名無しさん
2018/07/28(土) 14:40:56.72ID:qPhlaL35 ここは2ちゃんねる
707デフォルトの名無しさん
2018/07/28(土) 16:51:26.52ID:C5WYC0pi NGID:qPhlaL35
708デフォルトの名無しさん
2018/07/28(土) 17:00:27.28ID:s8FQvaoR 2ちゃんねるじゃねえし
709デフォルトの名無しさん
2018/07/29(日) 08:00:53.23ID:IhU+hIo/710デフォルトの名無しさん
2018/07/29(日) 13:27:59.42ID:96P4hEQ+ これっきり
これっきり
もぉ
これっきり
もぉ
711デフォルトの名無しさん
2018/08/03(金) 14:17:02.83ID:6cBUjeBY ニューラルネットの質問なんですがバイアスを入力1、重みbとして扱う時に
X=[x1,...,xn,1]
W=[[w11,...,w1k],...[wn1,...,wnk],
[b1,...,bk]]
Y=XW=(1,n+1)
になりますよね
隠れ層がある場合は重みWの最後の列を出力1になるようにしないといけないと思うのですが
W=[[w11,...,w1k,0],...[wn1,...,wnk,0],
[b1,...,bk,1]]
こうしてもいいのでしょうか
X=[x1,...,xn,1]
W=[[w11,...,w1k],...[wn1,...,wnk],
[b1,...,bk]]
Y=XW=(1,n+1)
になりますよね
隠れ層がある場合は重みWの最後の列を出力1になるようにしないといけないと思うのですが
W=[[w11,...,w1k,0],...[wn1,...,wnk,0],
[b1,...,bk,1]]
こうしてもいいのでしょうか
712デフォルトの名無しさん
2018/08/03(金) 16:15:11.46ID:SxfGFWQF いいよ
713デフォルトの名無しさん
2018/08/11(土) 03:01:10.43ID:UlpI20Aa KerasのEmbeddingレイヤーについて教えてほしいんだけどさ
https://keras.io/ja/layers/embeddings/
>正の整数(インデックス)を固定次元の密ベクトルに変換します
の説明で、どういう計算をしたら
> 例)[[4], [20]] -> [[0.25, 0.1], [0.6, -0.2]]
になるん?
https://keras.io/ja/layers/embeddings/
>正の整数(インデックス)を固定次元の密ベクトルに変換します
の説明で、どういう計算をしたら
> 例)[[4], [20]] -> [[0.25, 0.1], [0.6, -0.2]]
になるん?
714デフォルトの名無しさん
2018/08/11(土) 05:49:45.90ID:dGCQYNDS >>713
ソースに計算方法書いてある。
ソースに計算方法書いてある。
715デフォルトの名無しさん
2018/08/11(土) 18:58:02.34ID:Llo9t+It いやしかし機械学習という神風でPythonがRubyを吹き飛ばしたよね
特にこれから始めようとする人で、Ruby選ぶ人って激減なんじゃないかと
特にこれから始めようとする人で、Ruby選ぶ人って激減なんじゃないかと
717デフォルトの名無しさん
2018/08/12(日) 09:32:53.85ID:w9MmyMC1 >>715
pythonは遅いのでJuliaに変わって欲しい。
pythonは遅いのでJuliaに変わって欲しい。
718デフォルトの名無しさん
2018/08/12(日) 12:20:59.75ID:rtSL/abo juliaは美しくない
719デフォルトの名無しさん
2018/08/13(月) 15:34:06.09ID:TK44Nf0Z >>718
pythonは遅いからc++にしてくれ。
pythonは遅いからc++にしてくれ。
720デフォルトの名無しさん
2018/08/13(月) 15:53:32.18ID:DfKQKyT+ フロント言語なんかお気楽さが命なんだから、CとかC++とかはありえねー。
721デフォルトの名無しさん
2018/08/13(月) 16:07:01.48ID:obMX332h C++は遅いからCにしてくれ。
722デフォルトの名無しさん
2018/08/17(金) 19:58:27.13ID:L+Oghf1D ディープラーニングで関数の先の予測はできますか?
例えばsin関数を学習する例で言えば
学習データとしてsin0~360の範囲で一度ずつ学習させますつまり、0という入力に対し0を返し,90に対し1を返すように学習させます。学習後入力データとして0~360の範囲外のデータを入力した場合どのような値が帰ってきますか?
例えばsin関数を学習する例で言えば
学習データとしてsin0~360の範囲で一度ずつ学習させますつまり、0という入力に対し0を返し,90に対し1を返すように学習させます。学習後入力データとして0~360の範囲外のデータを入力した場合どのような値が帰ってきますか?
723デフォルトの名無しさん
2018/08/17(金) 21:02:42.34ID:40V7MZ0K RNNでやってみろ
724デフォルトの名無しさん
2018/08/17(金) 21:51:00.47ID:L+Oghf1D >>723
試してみたけど無理っぽいです
試してみたけど無理っぽいです
725デフォルトの名無しさん
2018/08/18(土) 11:14:12.66ID:TgZCKLMK 学習してラジアン入力の方が使いやすいとか指示してくれるAIの方がうれしい
726デフォルトの名無しさん
2018/08/18(土) 12:03:29.25ID:XOnooV72 θ mod 360 を入力すればいいのでは
727デフォルトの名無しさん
2018/08/18(土) 12:58:05.26ID:sJcYZydr 教師データの分布から外れた値を推定できないのは当然のこと
728デフォルトの名無しさん
2018/08/18(土) 15:11:17.07ID:VPacy8Qu729デフォルトの名無しさん
2018/08/18(土) 15:13:20.87ID:ZTfsOHbf 端っこを捨てるか、端っこと同じデータを追加する
730デフォルトの名無しさん
2018/08/18(土) 16:04:57.24ID:VPacy8Qu ストライドを1にしたら、微小な位置に対する位置の頑健性が低くなりますよね?
731デフォルトの名無しさん
2018/08/18(土) 16:06:50.91ID:VPacy8Qu それと、結局>722の答えとしてはどうなりますか?
732デフォルトの名無しさん
2018/08/18(土) 17:02:20.81ID:iT5nZqsR プログラマーのなかには、解をひとつ見つけると、別の解の模索をしないまま、自分の知ってる1つの解だけが唯一の解だと断定したがる、頭のわるい人がいます。どうも彼らは、高校数学の知識が、まったく思考力に結びついてないらしいです。
そして、このような論理的思考力のひくい頭のわるいプログラマーにかぎって、「プログラマーには数学が重要だ! 数学教育は論理性を養う!」とか言ってたりしますので、とことん呆れます。
そして、このような論理的思考力のひくい頭のわるいプログラマーにかぎって、「プログラマーには数学が重要だ! 数学教育は論理性を養う!」とか言ってたりしますので、とことん呆れます。
733デフォルトの名無しさん
2018/08/18(土) 17:28:56.93ID:c7eNhY+n ただ頭が悪いだけだろ
734デフォルトの名無しさん
2018/08/18(土) 19:00:13.65ID:IyhzoKxX >>732
ほんそれ+1
ほんそれ+1
735デフォルトの名無しさん
2018/08/18(土) 19:25:31.95ID:VeWEqIaW 関係ないよ、数学は数学、といってもたいした数学をやっていないんだろうけど(笑)
736デフォルトの名無しさん
2018/08/18(土) 19:30:52.21ID:VeWEqIaW 狭い世界しか知らないのに微積分程度の知識で偉そうな顔をする、理解不能w
737デフォルトの名無しさん
2018/08/20(月) 08:45:14.02ID:kpNK1Ja8 >>721
Cは遅いからアセンブラにしてくれ。
Cは遅いからアセンブラにしてくれ。
738デフォルトの名無しさん
2018/08/20(月) 13:12:28.39ID:h5lNG6L+ アセンブラが速いのは昔の話
739デフォルトの名無しさん
2018/08/20(月) 13:28:48.06ID:EpIzDeqq 今のアセンブラは遅いのか
740デフォルトの名無しさん
2018/08/20(月) 13:46:43.73ID:FFhVJI7V CPUが速い(笑)
741デフォルトの名無しさん
2018/08/20(月) 14:11:56.42ID:M28ffXzp courseraでMLの授業取ってるんだけど、
θ'X のoctave実装が、X * θ になってるんだけど、
どうして逆になってるの?'は転置です。
そのままθ' * X だとサイズエラーになります。
θ'X のoctave実装が、X * θ になってるんだけど、
どうして逆になってるの?'は転置です。
そのままθ' * X だとサイズエラーになります。
742デフォルトの名無しさん
2018/08/20(月) 14:14:14.12ID:8bqZlRts θか疎行列だとか?
743デフォルトの名無しさん
2018/08/20(月) 14:22:58.02ID:Ylg8Xkap サイズエラー当たり前
744デフォルトの名無しさん
2018/08/20(月) 14:50:22.84ID:M28ffXzp サイズを調べると、θ は 2 * 1 X は 97 * 2 でした。
Xはテストデータの行列のようです。
ちなみに最急降下法の実装です。
θ' * Xがエラーになるのは、分かるのですが、モデルではθ'Xでと書いてあって、混乱しています
Xはテストデータの行列のようです。
ちなみに最急降下法の実装です。
θ' * Xがエラーになるのは、分かるのですが、モデルではθ'Xでと書いてあって、混乱しています
745デフォルトの名無しさん
2018/08/20(月) 14:55:15.55ID:H+/PCJgC θ * X'
746デフォルトの名無しさん
2018/08/20(月) 23:16:53.02ID:rhPo0SuQ 線形代数の勉強しろ
747デフォルトの名無しさん
2018/08/21(火) 10:32:47.84ID:tkrZv4s7 OpenGLとDirectXでは順序が違うアレか
748デフォルトの名無しさん
2018/08/22(水) 16:59:30.98ID:jh63+gzv m×n行列とn×p行列の積がm×pになるくらい基礎中の基礎だろ
749デフォルトの名無しさん
2018/08/22(水) 17:01:54.86ID:Q4k/bgn4 数学で良く使われる線形代数とMLのそれは違うからな
750デフォルトの名無しさん
2018/08/22(水) 19:04:20.85ID:3fAu/IG4 >>749
違うの?
違うの?
751デフォルトの名無しさん
2018/08/22(水) 20:23:14.92ID:UCPmMQzw 一緒だよ
752デフォルトの名無しさん
2018/08/22(水) 20:43:45.93ID:qbOJHKbO >数学で良く使われる線形代数
お察しw
お察しw
753デフォルトの名無しさん
2018/08/23(木) 09:11:55.04ID:29gBK1aD NHKω
754デフォルトの名無しさん
2018/08/23(木) 15:06:06.83ID:Yll/HlKL >>744
それ線形代数になれてないと、本当に最初混乱するけど
冷静にサイズチェックして行列の掛け算が実行可能なやり方にすればできる
一般化して簡単化してる講義ではnx1行列のθとXを想定してるから
スライドでもθ[θ1;θ2;θ3;....θi]、X[x1;x2;x3;....xi]って列ベクトル(orたまに行ベクトル)で表記してる
その場合、θ' has size 1 x n、X has size n x 1になって
θ' * Xで左からかける行列の列数と右の行数が一致してるから計算できる
要はθとXで内積取ればいいって考えれば,X has size m x 1、θ has size 1 x 1に
インターセプト項を加えて、Xがm x n行列、θがn x 1行列になった時
これらの行列の内積を取るには、(θ' * X') or X * θを計算すれば良いと分かるっていう
講義中の線形代数のチュートリアルでやってる簡単な話になる
それ線形代数になれてないと、本当に最初混乱するけど
冷静にサイズチェックして行列の掛け算が実行可能なやり方にすればできる
一般化して簡単化してる講義ではnx1行列のθとXを想定してるから
スライドでもθ[θ1;θ2;θ3;....θi]、X[x1;x2;x3;....xi]って列ベクトル(orたまに行ベクトル)で表記してる
その場合、θ' has size 1 x n、X has size n x 1になって
θ' * Xで左からかける行列の列数と右の行数が一致してるから計算できる
要はθとXで内積取ればいいって考えれば,X has size m x 1、θ has size 1 x 1に
インターセプト項を加えて、Xがm x n行列、θがn x 1行列になった時
これらの行列の内積を取るには、(θ' * X') or X * θを計算すれば良いと分かるっていう
講義中の線形代数のチュートリアルでやってる簡単な話になる
755デフォルトの名無しさん
2018/08/23(木) 15:14:07.22ID:Yll/HlKL てか俺もまだMLやってる途中なんだけど
同じ教授のディープラーニングコースの方をやり終えた人いる?
いたらどの程度日本語字幕付いてるか教えてほしい
1週間の無料期間だとちょっとしか見れないだろうから
日本語字幕ありとなしじゃ倍以上理解に時間かかるわ…
同じ教授のディープラーニングコースの方をやり終えた人いる?
いたらどの程度日本語字幕付いてるか教えてほしい
1週間の無料期間だとちょっとしか見れないだろうから
日本語字幕ありとなしじゃ倍以上理解に時間かかるわ…
756デフォルトの名無しさん
2018/08/23(木) 15:41:42.39ID:nRYvmGHy 行列の内積や積の意味さっぱりわからずに単に数字の操作としてしかやってないからそんなつまんないところで躓くんだろうな
やっぱ線形代数の入門書ぐらいは読んどいた方がいい
やっぱ線形代数の入門書ぐらいは読んどいた方がいい
757デフォルトの名無しさん
2018/08/23(木) 15:45:33.72ID:9jntmGn7 ■クソマウンティング警戒情報■
クラス1 大学の授業で線形代数をやっただけのおっさん
クラス2 大学には行かなかったが線形代数を独習したおっさん
このあたりが出没してるので気をつけましょう。
クラス1 大学の授業で線形代数をやっただけのおっさん
クラス2 大学には行かなかったが線形代数を独習したおっさん
このあたりが出没してるので気をつけましょう。
758デフォルトの名無しさん
2018/08/23(木) 15:46:40.80ID:NPcuqlt3 AI関係はヤバいのがいるという噂は本当だった
759デフォルトの名無しさん
2018/08/23(木) 15:57:35.51ID:dSKkSrpr 線形代数知らないと大損だよ!
人工知能
ディープラーニング
機械学習
だけじゃないよ!
プログラミングでかなり重要
人工知能
ディープラーニング
機械学習
だけじゃないよ!
プログラミングでかなり重要
760デフォルトの名無しさん
2018/08/23(木) 15:58:56.38ID:0ACQCzra そりゃ線形代数は大事だよ!!!
761デフォルトの名無しさん
2018/08/23(木) 16:15:33.38ID:+UveuQfQ >>757
ここは高卒率高い
ここは高卒率高い
762デフォルトの名無しさん
2018/08/23(木) 20:57:35.73ID:n9wdMl+k 行列学ぶにはには画像処理がいいって、
それ一番言われてるから。
データサイエンスから派生してOPenCV
始めたけどかなり楽しいゾ。
数式見るだけより画像がどう変化するかを
確認するとアルゴリズムの意味や目的が
はっきりわかんだね。
それ一番言われてるから。
データサイエンスから派生してOPenCV
始めたけどかなり楽しいゾ。
数式見るだけより画像がどう変化するかを
確認するとアルゴリズムの意味や目的が
はっきりわかんだね。
763デフォルトの名無しさん
2018/08/23(木) 21:42:01.92ID:hpTFsjjR 結局ライブラリ使ってるから数学関係ないよね
764デフォルトの名無しさん
2018/08/23(木) 22:27:21.08ID:n9wdMl+k ライブラリを使うには数学知識が必須
なんだよなぁ…
例えばnumpyを使うのに行列知識ゼロじゃ
使いこなせない。
逆にnumpyを使っているうちに行列への
理解が深まるってこともあるし。
なんだよなぁ…
例えばnumpyを使うのに行列知識ゼロじゃ
使いこなせない。
逆にnumpyを使っているうちに行列への
理解が深まるってこともあるし。
765デフォルトの名無しさん
2018/08/24(金) 01:04:01.12ID:1PBeUR3/ まあサラスの公式とかは覚える必要ないよね
766デフォルトの名無しさん
2018/08/24(金) 03:41:37.45ID:6wpy6wRV 回答がつくか自信がないですがいくつか質問です
@ 右上の▽E(w)の定義を教えてください
A なんで式の3行目のβにはtがくっついているのですか
https://i.imgur.com/cqdg8pC.jpg
@ 右上の▽E(w)の定義を教えてください
A なんで式の3行目のβにはtがくっついているのですか
https://i.imgur.com/cqdg8pC.jpg
767デフォルトの名無しさん
2018/08/24(金) 05:08:08.95ID:c+mh3mBZ768デフォルトの名無しさん
2018/08/24(金) 05:59:54.55ID:/QW9Joy2 >>765
行列式の計算とかnumpyで楽チン。
行列式の計算とかnumpyで楽チン。
769デフォルトの名無しさん
2018/08/24(金) 06:29:31.37ID:dwzt+F5U >>766
>@ 右上の▽E(w)の定義を教えてください
損失関数Eの勾配
=δE/δw
>A なんで式の3行目のβにはtがくっついているのですか
学習の経過に従って、mとvの寄与度を調整して学習を安定させる
>@ 右上の▽E(w)の定義を教えてください
損失関数Eの勾配
=δE/δw
>A なんで式の3行目のβにはtがくっついているのですか
学習の経過に従って、mとvの寄与度を調整して学習を安定させる
770デフォルトの名無しさん
2018/08/24(金) 06:32:34.83ID:dwzt+F5U ∂E/∂w だった(偏微分記号)
771デフォルトの名無しさん
2018/08/24(金) 06:56:46.17ID:dwzt+F5U Aの補足
学習の初期段階でtが小さい時にmとvを調整して学習を安定させる効果がある。
この式の分母はtが大きくなるとほぼ1になりほとんど変化しなくなる。
学習の初期段階でtが小さい時にmとvを調整して学習を安定させる効果がある。
この式の分母はtが大きくなるとほぼ1になりほとんど変化しなくなる。
772デフォルトの名無しさん
2018/08/24(金) 09:07:03.58ID:1nJvNU0i >>766
BPから勉強しろ
BPから勉強しろ
773デフォルトの名無しさん
2018/08/24(金) 12:44:28.77ID:TTydjelR まさか今更微積や線形代数の復習する羽目になるとは
774デフォルトの名無しさん
2018/08/24(金) 12:58:10.52ID:6wpy6wRV775デフォルトの名無しさん
2018/08/24(金) 13:09:28.12ID:KZ7MNsvQ 1から始めればよい
776デフォルトの名無しさん
2018/08/25(土) 18:31:41.77ID:Dxvsv0A8 >>775
ありがとうございました!
下層からの誤差って具体的に何ですか?
https://i.imgur.com/y0O5glz.jpg
https://qiita.com/eijian/items/c947fb6b5e7a49858fb4
ありがとうございました!
下層からの誤差って具体的に何ですか?
https://i.imgur.com/y0O5glz.jpg
https://qiita.com/eijian/items/c947fb6b5e7a49858fb4
777デフォルトの名無しさん
2018/08/25(土) 22:43:44.04ID:xNcAdL4l >>776
その畳み込みの次にある層からの誤差
その畳み込みの次にある層からの誤差
778デフォルトの名無しさん
2018/08/26(日) 00:28:46.57ID:ZbBrZXXn 誤差逆伝播法では誤差が下層から上層に伝えられていく。誤差が具体的に何かと聞かれても、正解値と推定値の差を順次上層に向かって伝えられていく値としか答えようがない。
779デフォルトの名無しさん
2018/08/26(日) 00:35:44.23ID:czFWrRej >>777
例えば畳み込み層の前がプーリング層だった場合具体的に何が誤差になりますか?
例えば畳み込み層の前がプーリング層だった場合具体的に何が誤差になりますか?
780デフォルトの名無しさん
2018/08/26(日) 00:59:20.08ID:ZbBrZXXn 例えばMAXプーリング層では、下層から伝えられた誤差(偏微分値)を、順伝播時のMAXだったノードに伝えられる。MAX以外のノードには0が伝えられる。このようにそのノードの性質によって何が伝えられるかは変わってくる。
781デフォルトの名無しさん
2018/08/26(日) 02:15:36.01ID:czFWrRej >>780
そのプーリング 層の前が全結合層だった場合その層での誤差は何になるのでしょう?全結合層での入力層と隠れ層の間の重みとかですか?
そのプーリング 層の前が全結合層だった場合その層での誤差は何になるのでしょう?全結合層での入力層と隠れ層の間の重みとかですか?
782デフォルトの名無しさん
2018/08/26(日) 02:36:56.87ID:DVI2ghbE 東京大学理学部数学科に入って、数論幾何学を勉強したい。
でも脇見恐怖症だしなぁ・・・・・。
でも脇見恐怖症だしなぁ・・・・・。
783デフォルトの名無しさん
2018/08/26(日) 08:52:46.06ID:Eme/jpQ6 >>781
全結合部の出力層で誤差関数で誤差を求めて後は入力側に向かってその誤差を各ニューロン毎に重み掛け算して分配していく。
分配が終わったら誤差、学習率等を使って各重みを更新。間違ってたら指摘お願いします
全結合部の出力層で誤差関数で誤差を求めて後は入力側に向かってその誤差を各ニューロン毎に重み掛け算して分配していく。
分配が終わったら誤差、学習率等を使って各重みを更新。間違ってたら指摘お願いします
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【サッカー】U-17日本代表、激闘PK戦制す 北朝鮮撃破で6大会ぶり8強入り U17W杯 [久太郎★]
- 日本行き空路49万件キャンセル 中国自粛呼びかけ 日本行きチケット予約の約32%に相当 ★3 [ぐれ★]
- 【芸能】日中関係悪化でエンタメ業界に大ダメージ… JO1の中国でのイベント中止、邦画は公開延期、STARTOアイドルへの影響も [冬月記者★]
- XやChatGPTで広範囲の通信障害 投稿や閲覧できず [蚤の市★]
- 現役猟師・東出昌大、クマ被害続出も過熱する報道に「クマはそんな危ないもんじゃない」理由語る [muffin★]
- 【インバウンド】中国人観光客の日本での消費額は年間約2兆円超…中国政府は公務員の出張取り消し [1ゲットロボ★]
