人工知能ディープラーニング機械学習のための数学 [無断転載禁止]©2ch.net
レス数が1000を超えています。これ以上書き込みはできません。
>>590
そもそも論で済まないが
もう少し文章能力を上げよう >>590
今記事を読んだけど、
主な調査項目は
・「情報を取得する能力」
・「情報を外部世界に提供する能力」
・「知識に精通して蓄積する能力」
・「知識を創造する能力」
で、それぞれに対して調査を基に計算モデルをつくり、
AIの能力を「算出」したと書いてある。
つまりここでは身体性については述べていない。
ということであなたが嘘だと感じているその根拠自体が、
そもそも的を射ていないということです。
こういったバイアスの係った投稿をする馬鹿記者が日本には多いです。
気を付けましょう。 水滴 石を穿つ
わずかな水滴でも、絶えず落ちると、固い石にでも穴をあける。
小さなことでも継続することで大きな結果になるという教え。
たぶんこういうことなんじゃないかな?
知能レベルで言えば、ドリルと水滴との違いがある。
でもコンピュータの高速な処理で僅かな水滴が落ちる時間を
大幅に短縮することで穴を開ける
結果だけを見れば、どちらも穴を開けることに成功してはいるが、
人間とコンピュータではそのやり方が大きく違う >>604
そもそも論で済まないが
君ももう少し文章能力を上げよう 「人工知能」にマッチしました.
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:私たちの生活に欠かせないものとなりつつある人工知能=AI。“AI時代”に求められる能力や心構えとは?第一線で活躍する研究者やエンジニアが、高校生に語りかける。
放送日:2018年06月23日
開始時刻:14:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=31&area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年06月23日
開始時刻:14:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=33&area=001&date=&tz=all&mode=2&next=&f=week 今「JDLA Deep Learning for GENERAL 2018 #1」を終えました。
出題範囲が広すぎて、問題数多くて、時間なさすぎ>< >>613
それ興味はあった。
推薦図書買わないと厳しそう? >>615
自分は推薦図書は全部買いませんでした。
推薦図書は3冊あるけど個別にいうと
・AI白書・・・買わなくていいかな。※なぜなら出題数が少なかったから
・松尾氏の本・・・立ち読み程度でいいかな。
・深層学習・・・これは買って読んだ方がいいかも。
ちなみに出題範囲はかなり広いです。
現在のトレンドやら法律やら。自動運転レベルについてもあった。
今回も2時間で230問くらいなので
1問30秒くらいで解いていかないとすべて終わることすら危うい。
この試験は、参考書やインターネットを使用してもいいわけだが、
正直言って、じっくり調べる時間などない。
つまり、問題を読みながら空欄に選択肢から選んだ言葉を
サクサク当てはめていかないと間に合わない。
他にも聞きたいことがあればいってください。 >>616
なるほど、確かに問題数が多いね
自分は LPIC ぐらいしか受けたことないけど、あれは 90分60問だったから
はるかに多い。問題を読んで理解するだけで30秒ぐらいかかりそうだ >>582
機械学習コンサルタントは、AIに精通した奴、多いけど、
IT企業は、現状では、導入事例のある汎用AIの営業しか出来ん。
それに、モデル指定するにしろ、任せるにしろ、
放り投げられる下流って育ってるのかな。 >>617
合格したらAIの知識がある程度備わっていると言えなくもないレベル。
つまり広く浅くのレベルで会社の上の立場の人たちが
お客とはなしたりするときに話にある程度ついていけるくらいかな。
意味があるのはE資格の方かな。転職には引く手あまたになると思う。
しかし、E資格は相当ハードルが高いと思う。
プログラミング能力よりも数学の能力がかなり必要だし、
各ライブラリを使いこなせある程度実装経験を積んでいないときついと思う。
しかも、このE資格を受ける前にこの団体が指定した企業で一定期間教育を受けないと受験すらできない。
で、その教育が20〜40万もかかる異常さ。。。
こりゃ敷居高杉ですわ。。。 >>620
>転職には引く手あまたになると思う。
個人の感想ではしかたがない >>621
ごめんなさい、
個人の意見ではないです。
ニュースを見ればわかります。 AIなんてお前達はしなくていい。世の中の話は詐欺師がAIと言ってるだけだから。
今さらAI資格に投資してどうするんだ役に立つわけ無いだろ。
お前らの会話見てると、ほんと馬鹿ばかりになったと感じる。
小坊、厨房からやりなおせ。 人工知能は目的じゃなくて手段
人工知能で何をするかが重要
で、同じことができれば人工知能はいらない 転職のためにE資格取ろうと思ってるけど意味ないのかな…? >>628
意味は大いにありますよ
>>625
スキルや数学の素養がなくこの資格を取れないからといって
僻みはやめましょうよ、君、みっともないよ
>>626
>で、同じことができれば人工知能はいらない
本気で言っているならもっと勉強しましょうね
無知なことを言っていると笑われるよ >>620
>しかも、このE資格を受ける前にこの団体が指定した企業で一定期間教育を受けないと受験すらできない。
タダの資格ビジネスだな >>631
確かに資格ビジネスといいたいけど
そもそもこの資格は簡単には取れない難しさだし
しかも無料講義も別に行っているくらいだから
ただの資格ビジネスとはちょっと違うかなと思ってる 難しいかどうかではなく市場価値があるかどうかを問題にしてるのだが >>633
では聞くけど
この資格に市場価値がないという根拠は?
逃げないで明確に答えてね 市場価値があるという根拠がなければ、
ないとみなして良い
この理屈は、俺が作った資格に
市場価値がないという根拠があるかどうかを
判断するときに使う方法 >>637
なんだよ、結局明確な根拠はなしかよ
「この理屈は、俺が作った資格に」って、、、
君はちゃんと現実を見つめて勉強しなおすか
今の仕事で一生頑張るかだけだね
>>638
こいつは論外w Albertの株価が急騰しているな。
みんなも買ってねw 給料が上がるのか、転職できて一千万の給料が貰えるのかw 単に資格が役に立たないとか言ってる人達って往々にして受験したくてもなかなか敷居が高くてトライすらできず、その資格を非難することでしか自分のやるせなさを解消出来ないと言う人達が殆どだよね。 >>646
ちゃんと転職情報見てる?
軒並み1千万超えてるだろうがw
AIブームも終わりって、、、誰もブームで勉強してないよ
そもそもなんで君はこのスレにいるの?
愚痴ばっか言ってないで素直にもっともっと勉強しなさい
それが無理ならこういうところに来ないこと Albert、買っといたほうがいいよ。
トヨタが一番評価している会社。 >>650
その資格とったら一千万なのか違うだろアホ >>653
そんなこと言った?
どうもこのスレはこういう知恵遅れの人が多いな 畳み込みとプーリング層は
重みとか微分とか誤差逆伝播法は関係ないの?
というかこの層にはノード(ニューロン)が有るわけじゃ
無いんだよね?kerasだと「Dense()」をしているところが
中間の隠れ層っていうことは、それ以前の
畳み込み層とかプーリング層って入力画像をただ単に画像処理
しているものだという認識でOK? 確認したら畳み込み層ではフィルター行列が重み付けをしているんだな。
では畳み込み層のフィルター行列は「重み更新」の対象なの?
誤差逆伝播法とかでこの行列も更新するの? つか色々諸事情でPRMLから入る羽目になったのだが、むっさ遠回りしてる感ある。
数式に抵抗は無くなったけど。
並行してKeras氏の翻訳版読み進め始めたけどやはり基本はコーセラ? >>659
ほんとどこにでもいるよね
こういう余計な一言をいう人って
いいじゃない分からないことを聞いてるんだから
素直に教えてあげれば
自分が少しでも優位に立ちたいのかどうかわからないけど
こういう連中は本当にいなくなってほしい >>662
それを気にするような豆腐メンタルだったらもう5chやめたら?
ほんとボクちゃんは5chに何求めてんだか >>663
>豆腐メンタルだったら
>ボクちゃん
余計な一言を入れないと相手に意見すらいえないとは可哀想な生き方だと感じました
あなたのように5chに依存した生活を送っていると こういうさもしい人間になるのでしょうね
現実逃避もほどほどにしましょうね 犯罪者になる前に自身の言動を改めましょう
ではさようなら (もうここに来ませんからこの言葉を噛みしめて人生を送ってください) JDLA Deep Learning for GENERAL 2018#1の合格通知が届いた!
(合格者には併せて「JDLA合格者の会」の通知もあり)
----------------------------------------------------------------------
【JDLA Deep Learning for GENERAL 2018#1】
開催日:6/16(土)
受験者:1988名 ※第1回目に比べ約500名増
合格者:1136名
合格率:57.1% ※前回56.8% 今回も合格基準は提示されず
----------------------------------------------------------------------
人工知能の知識はそれなりにあったけど
兎に角問題数が多すぎで出題範囲もかなり広かったので実は自信がなかった
取り合えず人工知能ジェネラリストとして最低限の資格は取れたけど
自分はあくまでエンジニア希望なので次はE資格かな
でもその前にcourseraやその他教育システムの修了証も取っても面白そう
論文もそろそろ出したい。。。日本人の論文って殆どないからなぁ >>666
人工知能の知識がある程度ないと合格って厳しい感じ?
次受けようと思ってるから知りたい 人工知能の知識って必要?
人工ではない知能だけじゃ駄目なの? >>667
知識が全くないなら書籍やネットでかなり勉強しないとつらい
>>669
駄目ですw ALBERT今日も上がっているね。
買うぞ買うぞ買うぞ! Albert、案の定、ストップ高だよ。
だから言っただろ、買っとけって。
今からでも遅くないぞ。 「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:マイケル・サンデル教授が、民主主義と哲学発祥の地・ギリシアの遺跡を舞台に、現代社会の難問を世界の若者たちと議論。第2回はロボットやAIの進歩をめぐるジレンマ。
放送日:2018年06月30日
開始時刻:22:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=11&area=001&date=&tz=all&mode=2&next=&f=week >>582
営業やコンサルがモデルの指定まではする必要ねーだろ
そんなもんエンジニア側にやらせろ
できたら最高の超有能コンサルってだけだろ
大体、モデルの指定までコンサル営業がやってたら
エンジニア側はマジでコード書くだけだろうがアホか
AIコンサルに技術的に必要なのは
・業務内容の抽象的論理的説明及び記述
・業務から得られるデータの詳細な記述
それから見積もりにこだわってる時点でAIコンサルタントとして2流
どこも人材不足なんだから、自社でやらずに人任せでAIやろうってとこには
上限いっぱいまでふっかけりゃ良いんだよ 高等数学をアプリ化するとプロ電卓しかないのか?
アルゴリズム辞典みたいなのを探しているんだけど
>>680
最近のマ板はコピペ投稿しかないぞ >>1
どういてお前らはこのまま、
【人工知能長者に喰いもんにされる道】
を《《《自らchoice》》》》すんのか教えて?
"""俺様が、
【【世界の最高税率を統一する方法!w】】解明してやった↓↓"""のに
マジ方法↓
マジで【小説掲示板】(下記↓URL)で《《《絶賛》》》された(←※『マジ』だからな?)俺様の↓↓↓↓↓
『『『『戦争をなくして【世界を豊かに】w までwする《《《超現実的》》》』』』な方法wwwww↓↓↓↓↓↓↓
本当に簡単な話し。こういう事。
人類社会のルールは現在、現実的に“弱肉強食”である。
ならば、(人類は、)それを、「分数の計算」の様な要領で(、いわば、「横流し」的に)己が理想とする、
(要は、↓)
"平等・公平・公正”的なルール(仮)に
↓↓↓↓↓
【(ルール)変更】してしまえばいいの。w
(『お前らの為』だぞ?w(←※【【戦争でも起きてさっさと死てえぜ!(w)と思ってるヤツら以外】】なw))
↑↑↑↑↑↑↑↑↑(は、)
道理にかない、強者も弱者も損をしない(←※実際は【超、得】するw↓)から(それらが
(つまり、(それを)【余裕】)で納得する事で)それが(【余裕】で)成立し、世界から「威力」を廃するから《《《《戦争もなくなる》》》》
んだよwwwww
ちなみに【超、得】するのは、(この理論は、それ(ルール変更)から行くと、)「世界の最高税率を統一する事で全世界が豊かに!」なるからだよwwww俺様は【マジ超天才】だからwwwwwwwwwww
↓↓↓↓↓↓↓↓↓↓
http://www.kakiko.info/bbs4/index.cgi?mode=view&no=10099&p=8
(※↑「 小説カキコ掲示板 長文 戦争をなくす方法 希代世界一位 」
【検索】でも出るが↑これで開くと順番どおり表示される(※順番どおりに見ないと(俺様の理論は【マジ超一流】だが『『威力』』が半減する)(←※「ストーリーがあるから」)) numpy配列の様々な変換しまくった
行列の値って中身確認しても意味あるのかな、
計算が進行して意図した.shapeになっていれば
コードは間違えてないって判断でいいのだろうか?
数値の羅列を見ても計算が本当にミスっていないか
判断がつかんわ。 関係が深いのはTAUBVCのどれ?
何処?を勉強すれば役に立ちますか? 全部関係が深い
っていうか数学をAとかBとか分けるのがそもそも頭沸いてる証拠 >>689
そうですね、聞き方が間違っていました。
オブジェクト配列と変数配列の空間座標の写像変換アルゴリズムにおいて
ベクトル行列の微分積分がよく分からないので復習のための
参考書籍かページを紹介して頂けませんか? >>681さんの
>高等数学をアプリ化するとプロ電卓しかないのか?
>アルゴリズム辞典みたいなのを探しているんだけど
に近いものを探しています。
例えば、ハイパボリックタンジェント関数の実装プログラムなど
検索しても以下のような説明書レベルしか分からないのです。
https://support.minitab.com/ja-jp/minitab/18/help-and-how-to/calculations-data-generation-and-matrices/calculator/calculator-functions/trigonometry-calculator-functions/hyperbolic-tangent-function/
用途
ハイパボリック関数は、電気輸送(ケーブルや導線の長さ、重量、応力を計算する)、上部構造(吊橋の弾性曲線とたわみを計算する)、
および航空宇宙(航空機の理想的な表面被膜を判断する)など、
工学技術の分野において多くの応用に役立っています。
統計では、逆ハイパボリックサインがJohnson変換で使用され、
正規分布に従うようにデータを変換します。
工程能力分析によっては、正規性を仮定する必要があります。 数式の縦ベクトルの解釈にいつも迷う。
縦ベクトルってnumpyで定義するとどうなるの?
np.array([1, 2, 3])なのか、
np.array([ [1], [2], [3] ])なのか
縦ベクトルnp.array([1, 2, 3]).T は元のベクトルと全く
同じになるっぽいね。 縦か横かは関係ないというか自分がどう見るかで変わる
それより大事なのは右から掛けるか左から掛けるか
shapeで自信がないひとは
適当な正方行列を掛けてみれば良い >>700
君が期待してるのはこっちだろ
>>> np.array([[1, 2, 3]])
array([[1, 2, 3]])
>>> np.array([[1, 2, 3]]).T
array([[1],
[2],
[3]]) お前らもうディープラーニングの気持ちわかるの?
こういうことしたいなーって思ったらホイホイとネットワーク組んでおし動いたってなるの? >>703
ああそういうことか、ありがとう。
Conv層の入力画像が3チャンネルの場合、
フィルタ行列は3チャンネル別々のものが生成されるの?
それとも同じフィルタ行列を3チャンネルにブロードキャスト
するの? >>705
別々に生成される。
フィルタの結果は加算されて1チャンネルの画像になる。 ニューラルネットの質問なんですがバイアスを入力1、重みbとして扱う時に
X=[x1,...,xn,1]
W=[[w11,...,w1k],...[wn1,...,wnk],
[b1,...,bk]]
Y=XW=(1,n+1)
になりますよね
隠れ層がある場合は重みWの最後の列を出力1になるようにしないといけないと思うのですが
W=[[w11,...,w1k,0],...[wn1,...,wnk,0],
[b1,...,bk,1]]
こうしてもいいのでしょうか KerasのEmbeddingレイヤーについて教えてほしいんだけどさ
https://keras.io/ja/layers/embeddings/
>正の整数(インデックス)を固定次元の密ベクトルに変換します
の説明で、どういう計算をしたら
> 例)[[4], [20]] -> [[0.25, 0.1], [0.6, -0.2]]
になるん? いやしかし機械学習という神風でPythonがRubyを吹き飛ばしたよね
特にこれから始めようとする人で、Ruby選ぶ人って激減なんじゃないかと >>715
pythonは遅いのでJuliaに変わって欲しい。 >>718
pythonは遅いからc++にしてくれ。 フロント言語なんかお気楽さが命なんだから、CとかC++とかはありえねー。 ディープラーニングで関数の先の予測はできますか?
例えばsin関数を学習する例で言えば
学習データとしてsin0~360の範囲で一度ずつ学習させますつまり、0という入力に対し0を返し,90に対し1を返すように学習させます。学習後入力データとして0~360の範囲外のデータを入力した場合どのような値が帰ってきますか? 学習してラジアン入力の方が使いやすいとか指示してくれるAIの方がうれしい 教師データの分布から外れた値を推定できないのは当然のこと ストライドを1にしたら、微小な位置に対する位置の頑健性が低くなりますよね? それと、結局>722の答えとしてはどうなりますか? プログラマーのなかには、解をひとつ見つけると、別の解の模索をしないまま、自分の知ってる1つの解だけが唯一の解だと断定したがる、頭のわるい人がいます。どうも彼らは、高校数学の知識が、まったく思考力に結びついてないらしいです。
そして、このような論理的思考力のひくい頭のわるいプログラマーにかぎって、「プログラマーには数学が重要だ! 数学教育は論理性を養う!」とか言ってたりしますので、とことん呆れます。 関係ないよ、数学は数学、といってもたいした数学をやっていないんだろうけど(笑) 狭い世界しか知らないのに微積分程度の知識で偉そうな顔をする、理解不能w courseraでMLの授業取ってるんだけど、
θ'X のoctave実装が、X * θ になってるんだけど、
どうして逆になってるの?'は転置です。
そのままθ' * X だとサイズエラーになります。 サイズを調べると、θ は 2 * 1 X は 97 * 2 でした。
Xはテストデータの行列のようです。
ちなみに最急降下法の実装です。
θ' * Xがエラーになるのは、分かるのですが、モデルではθ'Xでと書いてあって、混乱しています m×n行列とn×p行列の積がm×pになるくらい基礎中の基礎だろ 数学で良く使われる線形代数とMLのそれは違うからな >>744
それ線形代数になれてないと、本当に最初混乱するけど
冷静にサイズチェックして行列の掛け算が実行可能なやり方にすればできる
一般化して簡単化してる講義ではnx1行列のθとXを想定してるから
スライドでもθ[θ1;θ2;θ3;....θi]、X[x1;x2;x3;....xi]って列ベクトル(orたまに行ベクトル)で表記してる
その場合、θ' has size 1 x n、X has size n x 1になって
θ' * Xで左からかける行列の列数と右の行数が一致してるから計算できる
要はθとXで内積取ればいいって考えれば,X has size m x 1、θ has size 1 x 1に
インターセプト項を加えて、Xがm x n行列、θがn x 1行列になった時
これらの行列の内積を取るには、(θ' * X') or X * θを計算すれば良いと分かるっていう
講義中の線形代数のチュートリアルでやってる簡単な話になる てか俺もまだMLやってる途中なんだけど
同じ教授のディープラーニングコースの方をやり終えた人いる?
いたらどの程度日本語字幕付いてるか教えてほしい
1週間の無料期間だとちょっとしか見れないだろうから
日本語字幕ありとなしじゃ倍以上理解に時間かかるわ… 行列の内積や積の意味さっぱりわからずに単に数字の操作としてしかやってないからそんなつまんないところで躓くんだろうな
やっぱ線形代数の入門書ぐらいは読んどいた方がいい ■クソマウンティング警戒情報■
クラス1 大学の授業で線形代数をやっただけのおっさん
クラス2 大学には行かなかったが線形代数を独習したおっさん
このあたりが出没してるので気をつけましょう。 線形代数知らないと大損だよ!
人工知能
ディープラーニング
機械学習
だけじゃないよ!
プログラミングでかなり重要 行列学ぶにはには画像処理がいいって、
それ一番言われてるから。
データサイエンスから派生してOPenCV
始めたけどかなり楽しいゾ。
数式見るだけより画像がどう変化するかを
確認するとアルゴリズムの意味や目的が
はっきりわかんだね。 ライブラリを使うには数学知識が必須
なんだよなぁ…
例えばnumpyを使うのに行列知識ゼロじゃ
使いこなせない。
逆にnumpyを使っているうちに行列への
理解が深まるってこともあるし。 回答がつくか自信がないですがいくつか質問です
@ 右上の▽E(w)の定義を教えてください
A なんで式の3行目のβにはtがくっついているのですか
https://i.imgur.com/cqdg8pC.jpg >>569
もちろんある程度大学の数学をやった上で言ってるんだと思うんだけど
ある程度やった上での発言だとしたら頭が悪いわ >>766
>@ 右上の▽E(w)の定義を教えてください
損失関数Eの勾配
=δE/δw
>A なんで式の3行目のβにはtがくっついているのですか
学習の経過に従って、mとvの寄与度を調整して学習を安定させる Aの補足
学習の初期段階でtが小さい時にmとvを調整して学習を安定させる効果がある。
この式の分母はtが大きくなるとほぼ1になりほとんど変化しなくなる。 >>766です
ありがとうございます、解決しました
tが0から始まるとすればbeta^0でそっから1引いたものが分母になるから分母0にならないですか? 誤差逆伝播法では誤差が下層から上層に伝えられていく。誤差が具体的に何かと聞かれても、正解値と推定値の差を順次上層に向かって伝えられていく値としか答えようがない。 >>777
例えば畳み込み層の前がプーリング層だった場合具体的に何が誤差になりますか? 例えばMAXプーリング層では、下層から伝えられた誤差(偏微分値)を、順伝播時のMAXだったノードに伝えられる。MAX以外のノードには0が伝えられる。このようにそのノードの性質によって何が伝えられるかは変わってくる。 >>780
そのプーリング 層の前が全結合層だった場合その層での誤差は何になるのでしょう?全結合層での入力層と隠れ層の間の重みとかですか? 東京大学理学部数学科に入って、数論幾何学を勉強したい。
でも脇見恐怖症だしなぁ・・・・・。 >>781
全結合部の出力層で誤差関数で誤差を求めて後は入力側に向かってその誤差を各ニューロン毎に重み掛け算して分配していく。
分配が終わったら誤差、学習率等を使って各重みを更新。間違ってたら指摘お願いします >>783
「重み掛け算」というのが違う。どのように分配していくかは、順伝播時ノードの処理によって変化する。足し算ノードなら何もかけずに逆伝播させるし、掛け算ノードであれば逆ノードの値を掛けて逆伝播させるし。 上記についてはこのページが詳しいかな
ttps://qiita.com/t-tkd3a/items/031c0a4dbf25fd2866a3 リアルプログラムでは学習した結果ってどうやって永続化してるの?
ファイルに書き出すの? 基本的には各サンプルを通して損失関数を最小化するθ(重み)が学習成果なわけだから
そのθをファイルに保存する
途中からの場合θのファイルをロードする
モデルによって他にドロップアウトやRegularization値など自動で最適化してるハイパーパラメータがあればそれもファイルに保存する 全部チューニングの問題。その設定で精度のが上がれば、そのタスクにとっては「正しい」設定となる。 色々深層学習のライブラリ弄ってて、モデルそのものを弄りたくなってきて調べたけど
既存の深層学習のライブラリ全部、iter中に計算速度稼ぐことメインに考えてて
気軽に独自モデル試せるようなもんじゃないんだな
ライブラリ使って新しいモデル作ってる研究者は低レベルで殴り合ってるわけだ
ソース見てもモジュール化されすぎてて全部理解するのには相当時間かかる
独自にモデル作ってる人らには頭が下がるわ
フルスクラッチでやったほうが実装そのものは相当楽だろ
でも今どきフルスクラッチでDNNの新モデル作ったところで研究者には見向きもされないんだろうな 既存の数学的アプローチでは汎用人工知能は無理。
新しい数学を創造する必要がある。 人間の脳の学習能率に対して、ディープラーニングでは人間ではあり得ない量のデータを力技で教え込んでいるという現状を考えれば既存理論では実現不可能なのは明白だな
根本的にやってることが違う 数学は万物を定量化して表すもの
数学に出来ないのはヒルベルトのように、解く方法が解らない問題と
世界の誰も未だに気づいていない問題 そのうち人工知能の性能や危険性を監査する方法が必要になる
監査もAIにして相互に進化させる
人間のはるか上を行くAIになりそう >>806
>監査もAIにして相互に進化させる
こういう自己学習はすべてのAIにて有効とは限らない、と思いますが NNのパラメータが十分多ければSGDでも多項式時間で最適解に収束する事が証明されたな
https://arxiv.org/abs/1811.03962 ε-δ論法での「十分小さければ」みたいによくある表現だよね t分布で自由度が十分大きければ正規分布になるとか、割とあちこちで十分大きければ論法は使われる
「十分大きい」というのが現実的なサイズなら何の問題もないし非現実的なサイズなら机上の空論というだけのこと 誤差曲面には極小値や鞍点が無数にあるにも関わらず、SGDで最適解に辿り着けてしまうのは自明では無い
経験的に知られていたが謎だった事が理論的に解明された事に価値がある
あと(指数ではなく)多項式時間と分かった事も大きいと思う 初歩的なもので申し訳ありませんが
ゼロから作るDeep Learningの中の数式の変形で以下のような変形がありました。
どう変形したらこうなるのはわからないのですがどなたか教えていただけないでしょうか?
c exp(x) = exp(x + log c) 定義から追っていけばわかるだろ?
expてのはeを何回掛けたか
logはその逆
exp(log c) = cはcが特殊な値でない限り常になりたつ。
exp(a)exp(b)はeをa回掛けたものにさらにeをb回掛けることになる
これはexp(a+b)に等しい >>817
ありがとうございます。
言われてみればなんで気づかなかったんだろってレベルでした。 ln 左辺
= ln (c * e^x)
= ln c + ln e^x
= ln c + x
ln 右辺
= ln e^(x + ln c)
= x + ln c
高校の算数で分かる >>816
c = exp(log (c))
まずこれを理解して
c・exp(x) = exp(x)・exp(log(c))
= exp(x + log(c)) >>816
exp(x + log c)=exp(x)*exp(logc) 指数法則:exp(x+y)=exp(x)exp(y)
=exp(x)*c expとlogは互いに逆関数なので順番に作用させると元に戻る:x=exp(logx) c exp(x) = exp(x + log(c))
log(c exp(x)) = log(exp(x + log(c)))
log(c) + log(exp(x)) = log(exp(x + log(c)))
log(c) + x = x + log(c) ゼロから作るDeep Learningの中のAffineレイヤの部分で
行列の積
X・W
をXで微分したものが
Wの転置行列
になっており、
X・W
をWで微分したものが
Xの転置になっていますがこの辺の説明がないためなぜそうなるのかわかりませんでした。
この辺は数学のどの部分をやれば理解できますでしょうか?いい参考書があれば教えてほしいです。
後同じAffineレイヤのバッチ対応版で、バイアス部分がすべてのバッチ分の加算になっていますが
これってどう解釈すればいいのでしょうか?
いまいちなぜすべてを加算するのか理解できませんでした。 >>823
行列 (i,j) 成分が
\sum_k( x_{i,k}*w_{k,j} )
になってる事から一つ一つ計算しな。 DeepLearningを試しにやってみたいけど
Chainerあたりが手軽なの?
ちなみに文系の馬鹿です。
回帰分析とSVMを
Pythonで試したことあります。 そんだけやってればこのスレのほとんどの人より先に行ってるぞ >>837
マジレスするとクラウドのがコスパいい
睡眠も妨げない >>839
無料がいいならGoogle Colaboratory行っとけ
速度はイマイチだがCPUだけよりはかなりマシ >>843
用途による
一般用途はAmazon、サクラ、google、Azure等
あとはサービス連携
ワトソンとか使いたいならIBM Bluemix
TPUで爆速機械学習とかならGoogle Cloud Platform
個人的な意見で申し訳ないが
使いやすいのはamazon aws
価格が安いのはGoogle、IBM
サクラは官公庁とかで従量課金NGとかでも相談に乗ってくれる >>844
ありがとうございます。
取引先は機械学習するのにAzuzeにしたのですが
利用料金が予想以上に高いと言ってました。
いろいろ検討してみます。 値段はAwsでもそう変わらんちゃう
Googleはちょい安そう 本業の問題解決にディープラーニングを利用するかディープラーニング自体を本業とするかでクラウド使うべきかは変わる
GPUぶん回すのは学習時ぐらいなので前者なら実際は学習以外の仕事が大半を占めるのでクラウドの方が安く、後者なら学習させまくるのだろうからハード買った方が安い >>847
何気に無視できないのはデータ量
訓練データや最終出力に大量のデータを保存する必要があるときはクラウドが高くつく
GPUのランニングコストはさほどでもない さくらの高火力コンピューティングとかめちゃ高いよな。
あれ誰が使うんだろ? >>845
利用料金、これからの課題やで
機械学習はこれからビジネスの世界になる
機械学習で精度はあがっても、その精度を出すためのコストが問題されるようになる
大半の用途ではコストがかさんで機械学習をする意味がない
(コストにはデータを集めるためのコストも含含まれる)
もう少ししたら、これが問題視されるようになる >>850
1TBのディスクはAmazon EBSの場合、帯域幅にもよるけど月当たり数千円から数万円。どのくらいを大容量というかは学習とのバランスによる。
GPUはEC2 P3でV100を使って一番安いオプションで24時間使い続けたとして月額25万くらい。実際にはこの1/3くらいだから月8万円としよう。
そうするとランニングコストのうち10%前後はストレージの容量に払うことになる。これを計算機コストに置き換えるとクラウドのストレージが如何に高いか分かる。
V100搭載の計算機は200万円くらい、かつ24時間回しっ放しだと電気代が月々数万円かかる。かりに1/3だとしても1〜2万円くらいだろうか。
※このクラスだと納期に最低2週間、必要なら電源工事、さらには固定資産税が掛かるが今は置いておこう。
大雑把な計算だと、GPU計算機の購入費用はクラウド換算では2.5年間くらいに相当する。2.5年もすると計算機の大幅な性能向上も見込まれるので、クラウドの有用性が分かるだろう。
一方1TBのSSDが2万円切る中、同じ容量のストレージをクラウド上で保持しようと思うと、1〜3ヶ月程度しか持たない。もちろんサービス用の高いストレージを使うのもありだが学習用途なのであまり意味がない。 >>852
コストは掛かるのはわかるが、それによって
なにが得られるかだよな
コストを掛けた以上の利益が得られなければやる意味がない
まあ今はまだ検証段階でそこまで考えられる所まで来てないんだろうけど
いいよな。結果が出なくても良い段階っていうのはw >>852
ストレージは利用者に提供した分は必ず確保して使えるようにするから占有だけど
GPUは隙間時間を別の人が使ったりできる点は違うんじゃね 仕事で国の統計データ使うこと多いのに
マジで勘弁して欲しいぞ 計算できるようにデータを
纏めるのが大変なんじゃ! この地域にはこういう属性の人が多いからこういう戦略で行こうとビジネスの意思決定に使ってた国のデータが嘘だった場合、
これからのことは正しいデータで計算し直せば済むが過去の莫大な機会損失も補償してくれなければ意味がない ほんとにまともなAIなら
学習の結果として
不正な統計データが入力されたら
受け付けずに突っ返す動作にするのが理想だな >>865
それは不正統計を判定するために学習させた場合であって普通は誰もそんなもの作らないから 危機管理だろ、データが不正の場合当社は責任をもちませんと契約書に入れておくとか V100搭載の計算マシンが2〜3ドル/hてのがクラウドの相場 安そうに見えて結構高いよね実は?
24時間回したら俺は生活できないorz クラウド企業は大儲け!
クラウド使う意味が分からん? ディープラーニングは最小二乗法」で物議
慶應義塾大学経済学部の小林慶一郎教授がAI技術について解説
https://www.itmedia.co.jp/news/articles/1902/20/news141.html
さすがにこれはあかん、引退推奨レベル だれを相手に書いてるかが問題で
「日経の経済教室」
なら
あっそう
でおわり でも出力と教師信号の差を小さくするっていう点では
最小二乗法と同じじゃね?
多層にする事でより精度よく
複雑な問題に対応可能になっているけど
もっとシンプルな構造で
同様の出力をできれば
学習の計算力も少なくて済む 別に、理解している人からすれば
どうでもいい話しだよね。 別に最小二乗法である必要性はないし教師と予測の差を測る何かしらがあればいいだけなので全く本質的ではない >>875
短い言葉で判りやすく伝えるにはどういう表現がいい? 深く考えてくれるAIなんです
だからディープなんです
な、なるほど! ディープってのは単に中間層が複数あるということを言ってるだけだぞ >>873
ディープラーニングを一言で説明しろって言われて
A. 最小二乗法みたいなもの
B. ニューラルネットワークを沢山繋げたもの
のどっちの説明が適切かだな
実際はAの最適化の要素とBの深いネットワークの要素のどちらも重要だから、片方だけ説明すると片手落ちになって突っ込まれる 小学生に説明するときと猿に説明するときで説明の仕方変えるだろ
臨機応変に出来ない方が馬鹿 猿に教えてるところを録音されて晒し者にされたのが今回の事案。
「猿が相手だったので猿向けに説明してたんです」とは相手もいる以上言えんわなw 「片手落ち」は使ってはいけない表現じゃなかったか? >>880
ニューロンを沢山繋げたもの
って言われてそれで何ができるの?って思うけどな
炭素を沢山繋げたもの
って言われても価値があるものなのかわからない
炭なのかダイヤモンドなのか >>884
結局は聞く側が何を知りたいのかによる
それによってどんな観点で説明するか変わる ディープラーニングが何者か一言で説明しろと言われて一言で説明したらそれじゃ分からんと言われ、厳密に説明しようとしたらそんな難しい話理解できないと言われ 単純労働はもう人間がやる時代じゃなくなった
DLが判らない人は職を失います
DLが判る人は信用を失います データによって関数近似するだけですと答えりゃ良いんだよ。
deepが今までの機械学習と違うのは関数を表すパラメータが多いだけ。
(まあ多いからそれなりの学習法が必要になるってことではあるのだが。) 確かに「関数って何?」ってレベルの相手に「最小二乗法」とか言っても伝わらんよな そもそも最小二乗法知らないレベルの人がディープラーニングの意味を知ったところでその知識に使い道などない >>891
パラメーターの多さは本質的じゃない
他のモデルでも増やすだけならいくらでも増やせるし >>894
本質か本質でないかはわからんといったところだろ。
例えば混合ガウス分布のパラメータをdeep learning並にしてSGDで学習みたいなことを
実験した結果とかみたことないし、どれくらい差が出るのかは誰にもわからん。 入力データ入れたら、出力データを返す装置を作ってるだけ
それだけの話 >>883
そうやな
ちゃんと片端って言わないとな AIという名称を使ったおかげで
大きな予算が降りやすくなった >>896
深さが効いている
NNの深さは表現力に対して指数的に効くが、幅は多項式的
だから「ディープ」ラーニングがここまで流行った >>901
なるほど
まつおっさんはそこを説明し忘れたと わざわざ"ディープ"ラーニングだと言ってるのに今更「深さが重要だよ」程度の説明までしてやらなきゃならないのか
無知というのは本当に面倒だな >>901
深さはなぜ聞いてるんですか?
何に聞いてるんでしょうか?
まさか、非線形だからなんて答えないですよね? 自分で調べて理解する方が早いのをなぜわざわざ他人に聞くんだろう
自力でやるほどのことではないと言うならそんなことを知ったところで君の人生において使い道などないだろうに >>904
それはね、ふか〜い意味がある
でいいんじゃないか? >>904
同じ関数を同じ精度で近似したい時、幅を増やすよりも深くする方がニューロンが少なくて済む
理論的な所は論文がいくつもあるがフォロー出来てない >>903
理論上は古典的な三層のMLPで関数の任意精度近似が出来るのになぜ"ディープ"にする必要があるのか? とか少しNN齧れば誰でも思い至る疑問を感じず、「"ディープ"ラーニングと言う名前だから深さが重要」で思考停止している人間よりマシだな ゆうてもこのスレでディープラーニングのコード書いたことあるやつってほとんどいないよね? >>906
理論的な箇所?
わらわら‥
ほとんど結果論でしか語ってないような‥ 間違えた
>>907>>906
ほとんど結果論でしか語ってない >>907
いくつもあるか?本当に?
公理系からスタートしてる理論はほぼ皆無だよ >>913
理由として公理系から出発するレベルで厳密な証明を求めるならこんな所で聞かないで論文を読むべき
単にマウント取りたいだけならその限りではないが >>913
公理系の意味理解してるか?
標準的な数学の公理系に基づいているならわざわざそこから出発する意味はないよ
1+1の証明から始めてたらいつまで経っても目的の議論にたどり着けんやん 始めの仮定の部分を示せばよいと言っている
その仮定が確からしいかどうか怪しいと言っている 怪しいと思うなら自分で正しいのか間違いなのか示せばいいのに >>920
正しいか正しくないかは実験して確認するしかない
ヒッグス粒子にしろ相対論にしろ実験で確認できるまでは仮設
正しいかどうかに関係なく論理展開は可能
相対論で言えば光の速さが最速で一定というのは
実証されていない段階で論旨展開されて
時空間の相対性が導かれたと思う >>908
少しNN齧れば誰でも思い至るようなありふれた疑問なら少し調べればいくらでも答えは見つかるだろうになぜ自ら調べないのか 調べても深さと幅の関係はそんな単純ではないという結論だがな。
深さをあげれば掛け算で表現ノードが増えるという理屈はあるがあれはあれで怪しいし。
とりあえず実験的には深さを増してった方が有効というのは正しそうだが。 >>923
>光の速さが最速で一定というのは
これどうやって実証されたの? >>930
それが実証されたとは書いていない
導かれた予言が実証された そっか、光の速度は量れたが
測定手段としては一定という量り方はないんだな >>933
当時その実験やってる最中に偶然重力波が観測(というか観測じゃなくて到達と言うべきか)されてたら
歴史は変わっていただろうね >>938
一回観測されたくらいじゃ変わらねーよ。
このあとどんだけ実験されたと思ってんだ。 重力波なんて小さ過ぎて検出されないだけで
常に到達し続けていると言っても過言ではない 観測されていないパンチラとかものすごい量になるんだろうなあ せっかくパンチラしたのに見てももらえないとか可哀そう 客観的に確認・追実験できる形で記録すること
要は論文を書くこと 後から誰も何も確認できないなら観測していないのと同じだからね
「宇宙人見ました!写真も映像もないけどね」だと他人からすれば何の価値もない まあダークマターとか言われてるものも
パルサーのスピン軸がたまたま地球の方向を
一度も向かないだけのものが
ものすごい量あるんだろうなあ >>949
何がどれだけあるかはっきり分かっていないので、
何かないと計算が合わないから何かあることにする
ここまでは分かるんだけど、
宇宙はダークマターで満ちている!←おかしくね? おまいら
単なるデータへの
あてはめに
高尚なこと
求めすぎだと
思うぞ?
うまくあてはまった!
マンセー!
で、いいじゃん? >>950
おかしいと考える人も普通にいるだろうね。
エーテルはなかったがヒッグス粒子はあった、
とされている。
結局一番観測結果を説明できるモデルは何かという話。 >>954
理屈上これ以上物質はないはずだから残りはダークマター←わかる
どれだけ物質があるかわからないけど残りはダークマター←意味不明
ということを言いたいわけだが。 >>957
仮説にすぎないが、理由がわからないと仮設を認めないはギャップがあるが >>950
お魚さんが
宇宙は水でで満ちている!←おかしくね?
というのと同じ >>960
理由が理解できなのか、勉強しろよ
シリーズ現代の天文学(全17巻) 魚でも地上(空中)の人間の顔とか識別してるし
虫が飛んで来たら水面より上にジャンプして虫捕まえる鯉とかいるし
961 は仮説以前の問題 >>928
受けた。物体検出精度指標の計算問題とか出たねw
定義知らないと死亡。数学っていうか算数か。 >>957
すまん、
上になぜ納得できないのか下はなぜ納得できるのかさっぱりわからん。
別にどっちもどっちにしか思えないんだけど。 >>957
科学に対するスタンスの違いかと。
観測できないものに想いを巡らせたところでそれは想像でしかなく宗教みたいな水掛け論になって不毛。
あくまで現時点で観測できるものがすべてで、それで説明できない部分はXと置いてそれが何かを考えましょう、という発想なのかと。
公平な立場だとだと思うよ。 まだまだ分かんないことがたくさんあるよね、区別とか分類すらできないし、話がしやすいようにとりあえず一くくりにしてダークマターって名前つけとこうか、ぐらいの事だと思います。 >>966
下は「残り全部」とか言ってるけど、観測できないだけの物質があるかもしれないじゃん。 >>970
それは上の言い方でも下の言い方でも生じる疑問では? 統一理論ニダ
↓
説明出来ないものがある
↓
観測出来ないものが影響していることにしよう
↓←(この時点で既に観測出来ないのに「存在すること」が前提になっている)
補正したニダ
↓
上手く行った
これって天動説だろ 理論的には何かが存在するという前提を置かないと成立しないが今のところ観測していないものをダークマターと呼ぶだけ
理屈も何もないけど適当にダークマターとやらを登場させたわけではないわけで、指摘は的外れすぎる >>969
たとえばAI系の知識が全くない人がAI系部署に配属されちゃったりした場合みたいな
- 本人に基本的な知識がない
- 関係者一同からも素人だと認識されてる
みたいな状況sだったら、講座も含めて資格取得に向けた行動aをとることに対する収益Eはたかいんじゃね?
みたいな行動価値関数 Q^π(s,a)だと思う。 >>969
とる事自体の価値は分からんが、漠然とAIの勉強するよりは資格という分かりやすい報酬に向かって進む方がメンタル的に良いと思う 資格なんか下らんというひとの大半は資格に合格できない人 >>969
企業が社内エンジニアの教育によく使ってる
個人で受ける人はE資格は今のところ少ないね
英語分かるならコーセラの無料コース+ディープラーニングコースなら同程度の内容だし 資格取らなくてもいいけどその分野で普通に働いてる人が取れるレベルの資格が取れないのはヤバイ
取らないのか取れないのかの区別が大事 資格よりカグルで何位とかの方がアピールになると思う 大企業とかでこの資格持ってる人は優先的に採用しますみたいなのが出てきたら機械学習の分野にだって資格は定着するよ 大企業は、そういう資格を持ってる人を「使う」だけで
採用したいと思うかどうかは別の話だな。 >>984
資格は定着しても(それも怪しいが)技術は定着しない
今の日本の凋落っぷり見れば判るだろ とりあえず老害にならないこと。
データ分析?15年?はぁ?
それが資格なんかよりもずっと重要。 若い自惚れた馬鹿連中が
『私はデータサイエンティストです!』
とか言ってるんだ。
論文も書いたことないのにw
控えろよクズ! >>989
若害がひどい
ど素人の馬鹿のくせに
『私はデータサイエンティストです!』
とかw 自称データサイエンティスト「ロジスティック回帰?何ですかそれ」 wikipediaで
機械学習
ディープラーニング
データマイニング
それぞれ同じ絵で説明されてたわω ディープラーニングやってみてるけど、
こりゃ難しいわ。
さっぱり分からんので、
書店にいって分かりやすそうな本買ってきたw
アホな俺は涙目! >>998
マセマ の馬場先生に「ディープラーニングのための数学」でも書いてもらわんとな。
石村夫妻でも このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 797日 8時間 13分 57秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。