X



人工知能ディープラーニング機械学習のための数学 [無断転載禁止]©2ch.net
レス数が1000を超えています。これ以上書き込みはできません。
0677デフォルトの名無しさん
垢版 |
2018/06/22(金) 18:32:25.02ID:TBvVYEHB
>>21
こういう馬鹿には無理な分野
0678デフォルトの名無しさん
垢版 |
2018/06/23(土) 09:26:50.13ID:8e5n022B
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:マイケル・サンデル教授が、民主主義と哲学発祥の地・ギリシアの遺跡を舞台に、現代社会の難問を世界の若者たちと議論。第2回はロボットやAIの進歩をめぐるジレンマ。
放送日:2018年06月30日
開始時刻:22:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=11&;area=001&date=&tz=all&mode=2&next=&f=week
0679デフォルトの名無しさん
垢版 |
2018/06/25(月) 18:14:44.81ID:/ngVOpxb
>>582
営業やコンサルがモデルの指定まではする必要ねーだろ
そんなもんエンジニア側にやらせろ
できたら最高の超有能コンサルってだけだろ
大体、モデルの指定までコンサル営業がやってたら
エンジニア側はマジでコード書くだけだろうがアホか

AIコンサルに技術的に必要なのは
・業務内容の抽象的論理的説明及び記述
・業務から得られるデータの詳細な記述

それから見積もりにこだわってる時点でAIコンサルタントとして2流
どこも人材不足なんだから、自社でやらずに人任せでAIやろうってとこには
上限いっぱいまでふっかけりゃ良いんだよ
0681デフォルトの名無しさん
垢版 |
2018/06/28(木) 14:17:16.99ID:h2BQxJ0+
高等数学をアプリ化するとプロ電卓しかないのか?

アルゴリズム辞典みたいなのを探しているんだけど

>>680
最近のマ板はコピペ投稿しかないぞ
0683デフォルトの名無しさん
垢版 |
2018/07/04(水) 22:08:13.11ID:gFgZc5FG
Q8L
0684武闘派閥
垢版 |
2018/07/05(木) 16:22:05.13ID:VJODoSmh
>>1
どういてお前らはこのまま、
【人工知能長者に喰いもんにされる道】
を《《《自らchoice》》》》すんのか教えて?
"""俺様が、
【【世界の最高税率を統一する方法!w】】解明してやった↓↓"""のに
マジ方法↓

マジで【小説掲示板】(下記↓URL)で《《《絶賛》》》された(←※『マジ』だからな?)俺様の↓↓↓↓↓
『『『『戦争をなくして【世界を豊かに】w までwする《《《超現実的》》》』』』な方法wwwww↓↓↓↓↓↓↓

本当に簡単な話し。こういう事。

人類社会のルールは現在、現実的に“弱肉強食”である。

ならば、(人類は、)それを、「分数の計算」の様な要領で(、いわば、「横流し」的に)己が理想とする、
(要は、↓)
"平等・公平・公正”的なルール(仮)に
↓↓↓↓↓
【(ルール)変更】してしまえばいいの。w
(『お前らの為』だぞ?w(←※【【戦争でも起きてさっさと死てえぜ!(w)と思ってるヤツら以外】】なw))

↑↑↑↑↑↑↑↑↑(は、)
道理にかない、強者も弱者も損をしない(←※実際は【超、得】するw↓)から(それらが
(つまり、(それを)【余裕】)で納得する事で)それが(【余裕】で)成立し、世界から「威力」を廃するから《《《《戦争もなくなる》》》》
んだよwwwww

ちなみに【超、得】するのは、(この理論は、それ(ルール変更)から行くと、)「世界の最高税率を統一する事で全世界が豊かに!」なるからだよwwww俺様は【マジ超天才】だからwwwwwwwwwww
↓↓↓↓↓↓↓↓↓↓
http://www.kakiko.info/bbs4/index.cgi?mode=view&;no=10099&p=8
(※↑「 小説カキコ掲示板 長文 戦争をなくす方法 希代世界一位 」
【検索】でも出るが↑これで開くと順番どおり表示される(※順番どおりに見ないと(俺様の理論は【マジ超一流】だが『『威力』』が半減する)(←※「ストーリーがあるから」))
0686デフォルトの名無しさん
垢版 |
2018/07/15(日) 20:07:01.94ID:jrWwyMUz
numpy配列の様々な変換しまくった
行列の値って中身確認しても意味あるのかな、
計算が進行して意図した.shapeになっていれば
コードは間違えてないって判断でいいのだろうか?
数値の羅列を見ても計算が本当にミスっていないか
判断がつかんわ。
0687デフォルトの名無しさん
垢版 |
2018/07/16(月) 10:10:06.49ID:Tl1DHPio
普通見るやろ
0688デフォルトの名無しさん
垢版 |
2018/07/16(月) 10:56:54.37ID:1RDPQ2ba
関係が深いのはTAUBVCのどれ?
何処?を勉強すれば役に立ちますか?
0689デフォルトの名無しさん
垢版 |
2018/07/16(月) 11:23:32.35ID:Tl1DHPio
全部関係が深い
っていうか数学をAとかBとか分けるのがそもそも頭沸いてる証拠
0690デフォルトの名無しさん
垢版 |
2018/07/16(月) 11:50:10.35ID:1RDPQ2ba
>>689
そうですね、聞き方が間違っていました。

オブジェクト配列と変数配列の空間座標の写像変換アルゴリズムにおいて
ベクトル行列の微分積分がよく分からないので復習のための
参考書籍かページを紹介して頂けませんか?
0691デフォルトの名無しさん
垢版 |
2018/07/16(月) 12:14:37.34ID:1RDPQ2ba
>>681さんの
>高等数学をアプリ化するとプロ電卓しかないのか?
>アルゴリズム辞典みたいなのを探しているんだけど

に近いものを探しています。

例えば、ハイパボリックタンジェント関数の実装プログラムなど
検索しても以下のような説明書レベルしか分からないのです。
https://support.minitab.com/ja-jp/minitab/18/help-and-how-to/calculations-data-generation-and-matrices/calculator/calculator-functions/trigonometry-calculator-functions/hyperbolic-tangent-function/
用途

ハイパボリック関数は、電気輸送(ケーブルや導線の長さ、重量、応力を計算する)、上部構造(吊橋の弾性曲線とたわみを計算する)、
および航空宇宙(航空機の理想的な表面被膜を判断する)など、
工学技術の分野において多くの応用に役立っています。
統計では、逆ハイパボリックサインがJohnson変換で使用され、
正規分布に従うようにデータを変換します。
工程能力分析によっては、正規性を仮定する必要があります。
0700デフォルトの名無しさん
垢版 |
2018/07/28(土) 12:38:17.57ID:kGN2HSKI
数式の縦ベクトルの解釈にいつも迷う。
縦ベクトルってnumpyで定義するとどうなるの?
np.array([1, 2, 3])なのか、
np.array([ [1], [2], [3] ])なのか
縦ベクトルnp.array([1, 2, 3]).T は元のベクトルと全く
同じになるっぽいね。
0702デフォルトの名無しさん
垢版 |
2018/07/28(土) 13:41:32.50ID:39ICzHjE
縦か横かは関係ないというか自分がどう見るかで変わる
それより大事なのは右から掛けるか左から掛けるか
shapeで自信がないひとは
適当な正方行列を掛けてみれば良い
0703デフォルトの名無しさん
垢版 |
2018/07/28(土) 13:43:51.13ID:39ICzHjE
>>700
君が期待してるのはこっちだろ

>>> np.array([[1, 2, 3]])
array([[1, 2, 3]])

>>> np.array([[1, 2, 3]]).T
array([[1],
[2],
[3]])
0704デフォルトの名無しさん
垢版 |
2018/07/28(土) 13:45:26.27ID:mGJgyyGV
お前らもうディープラーニングの気持ちわかるの?
こういうことしたいなーって思ったらホイホイとネットワーク組んでおし動いたってなるの?
0705デフォルトの名無しさん
垢版 |
2018/07/28(土) 14:20:12.16ID:kGN2HSKI
>>703
ああそういうことか、ありがとう。

Conv層の入力画像が3チャンネルの場合、
フィルタ行列は3チャンネル別々のものが生成されるの?
それとも同じフィルタ行列を3チャンネルにブロードキャスト
するの?
0710デフォルトの名無しさん
垢版 |
2018/07/29(日) 13:27:59.42ID:96P4hEQ+
これっきり
これっきり
もぉ
0711デフォルトの名無しさん
垢版 |
2018/08/03(金) 14:17:02.83ID:6cBUjeBY
ニューラルネットの質問なんですがバイアスを入力1、重みbとして扱う時に
X=[x1,...,xn,1]
W=[[w11,...,w1k],...[wn1,...,wnk],
[b1,...,bk]]
Y=XW=(1,n+1)
になりますよね
隠れ層がある場合は重みWの最後の列を出力1になるようにしないといけないと思うのですが
W=[[w11,...,w1k,0],...[wn1,...,wnk,0],
[b1,...,bk,1]]
こうしてもいいのでしょうか
0712デフォルトの名無しさん
垢版 |
2018/08/03(金) 16:15:11.46ID:SxfGFWQF
いいよ
0713デフォルトの名無しさん
垢版 |
2018/08/11(土) 03:01:10.43ID:UlpI20Aa
KerasのEmbeddingレイヤーについて教えてほしいんだけどさ
https://keras.io/ja/layers/embeddings/
>正の整数(インデックス)を固定次元の密ベクトルに変換します
の説明で、どういう計算をしたら
> 例)[[4], [20]] -> [[0.25, 0.1], [0.6, -0.2]]
になるん?
0715デフォルトの名無しさん
垢版 |
2018/08/11(土) 18:58:02.34ID:Llo9t+It
いやしかし機械学習という神風でPythonがRubyを吹き飛ばしたよね
特にこれから始めようとする人で、Ruby選ぶ人って激減なんじゃないかと
0717デフォルトの名無しさん
垢版 |
2018/08/12(日) 09:32:53.85ID:w9MmyMC1
>>715
pythonは遅いのでJuliaに変わって欲しい。
0718デフォルトの名無しさん
垢版 |
2018/08/12(日) 12:20:59.75ID:rtSL/abo
juliaは美しくない
0719デフォルトの名無しさん
垢版 |
2018/08/13(月) 15:34:06.09ID:TK44Nf0Z
>>718
pythonは遅いからc++にしてくれ。
0720デフォルトの名無しさん
垢版 |
2018/08/13(月) 15:53:32.18ID:DfKQKyT+
フロント言語なんかお気楽さが命なんだから、CとかC++とかはありえねー。
0721デフォルトの名無しさん
垢版 |
2018/08/13(月) 16:07:01.48ID:obMX332h
C++は遅いからCにしてくれ。
0722デフォルトの名無しさん
垢版 |
2018/08/17(金) 19:58:27.13ID:L+Oghf1D
ディープラーニングで関数の先の予測はできますか?
例えばsin関数を学習する例で言えば
学習データとしてsin0~360の範囲で一度ずつ学習させますつまり、0という入力に対し0を返し,90に対し1を返すように学習させます。学習後入力データとして0~360の範囲外のデータを入力した場合どのような値が帰ってきますか?
0724デフォルトの名無しさん
垢版 |
2018/08/17(金) 21:51:00.47ID:L+Oghf1D
>>723
試してみたけど無理っぽいです
0725デフォルトの名無しさん
垢版 |
2018/08/18(土) 11:14:12.66ID:TgZCKLMK
学習してラジアン入力の方が使いやすいとか指示してくれるAIの方がうれしい
0730デフォルトの名無しさん
垢版 |
2018/08/18(土) 16:04:57.24ID:VPacy8Qu
ストライドを1にしたら、微小な位置に対する位置の頑健性が低くなりますよね?
0731デフォルトの名無しさん
垢版 |
2018/08/18(土) 16:06:50.91ID:VPacy8Qu
それと、結局>722の答えとしてはどうなりますか?
0732デフォルトの名無しさん
垢版 |
2018/08/18(土) 17:02:20.81ID:iT5nZqsR
プログラマーのなかには、解をひとつ見つけると、別の解の模索をしないまま、自分の知ってる1つの解だけが唯一の解だと断定したがる、頭のわるい人がいます。どうも彼らは、高校数学の知識が、まったく思考力に結びついてないらしいです。

そして、このような論理的思考力のひくい頭のわるいプログラマーにかぎって、「プログラマーには数学が重要だ! 数学教育は論理性を養う!」とか言ってたりしますので、とことん呆れます。
0734デフォルトの名無しさん
垢版 |
2018/08/18(土) 19:00:13.65ID:IyhzoKxX
>>732
ほんそれ+1
0735デフォルトの名無しさん
垢版 |
2018/08/18(土) 19:25:31.95ID:VeWEqIaW
関係ないよ、数学は数学、といってもたいした数学をやっていないんだろうけど(笑)
0736デフォルトの名無しさん
垢版 |
2018/08/18(土) 19:30:52.21ID:VeWEqIaW
狭い世界しか知らないのに微積分程度の知識で偉そうな顔をする、理解不能w
0737デフォルトの名無しさん
垢版 |
2018/08/20(月) 08:45:14.02ID:kpNK1Ja8
>>721
Cは遅いからアセンブラにしてくれ。
0738デフォルトの名無しさん
垢版 |
2018/08/20(月) 13:12:28.39ID:h5lNG6L+
アセンブラが速いのは昔の話
0741デフォルトの名無しさん
垢版 |
2018/08/20(月) 14:11:56.42ID:M28ffXzp
courseraでMLの授業取ってるんだけど、
θ'X のoctave実装が、X * θ になってるんだけど、
どうして逆になってるの?'は転置です。
そのままθ' * X だとサイズエラーになります。
0743デフォルトの名無しさん
垢版 |
2018/08/20(月) 14:22:58.02ID:Ylg8Xkap
サイズエラー当たり前
0744デフォルトの名無しさん
垢版 |
2018/08/20(月) 14:50:22.84ID:M28ffXzp
サイズを調べると、θ は 2 * 1 X は 97 * 2 でした。
Xはテストデータの行列のようです。
ちなみに最急降下法の実装です。

θ' * Xがエラーになるのは、分かるのですが、モデルではθ'Xでと書いてあって、混乱しています
0745デフォルトの名無しさん
垢版 |
2018/08/20(月) 14:55:15.55ID:H+/PCJgC
θ * X'
0747デフォルトの名無しさん
垢版 |
2018/08/21(火) 10:32:47.84ID:tkrZv4s7
OpenGLとDirectXでは順序が違うアレか
0749デフォルトの名無しさん
垢版 |
2018/08/22(水) 17:01:54.86ID:Q4k/bgn4
数学で良く使われる線形代数とMLのそれは違うからな
0751デフォルトの名無しさん
垢版 |
2018/08/22(水) 20:23:14.92ID:UCPmMQzw
一緒だよ
0753デフォルトの名無しさん
垢版 |
2018/08/23(木) 09:11:55.04ID:29gBK1aD
NHKω
0754デフォルトの名無しさん
垢版 |
2018/08/23(木) 15:06:06.83ID:Yll/HlKL
>>744
それ線形代数になれてないと、本当に最初混乱するけど
冷静にサイズチェックして行列の掛け算が実行可能なやり方にすればできる

一般化して簡単化してる講義ではnx1行列のθとXを想定してるから
スライドでもθ[θ1;θ2;θ3;....θi]、X[x1;x2;x3;....xi]って列ベクトル(orたまに行ベクトル)で表記してる
その場合、θ' has size 1 x n、X has size n x 1になって
θ' * Xで左からかける行列の列数と右の行数が一致してるから計算できる

要はθとXで内積取ればいいって考えれば,X has size m x 1、θ has size 1 x 1に
インターセプト項を加えて、Xがm x n行列、θがn x 1行列になった時
これらの行列の内積を取るには、(θ' * X') or X * θを計算すれば良いと分かるっていう
講義中の線形代数のチュートリアルでやってる簡単な話になる
0755デフォルトの名無しさん
垢版 |
2018/08/23(木) 15:14:07.22ID:Yll/HlKL
てか俺もまだMLやってる途中なんだけど
同じ教授のディープラーニングコースの方をやり終えた人いる?
いたらどの程度日本語字幕付いてるか教えてほしい
1週間の無料期間だとちょっとしか見れないだろうから

日本語字幕ありとなしじゃ倍以上理解に時間かかるわ…
0756デフォルトの名無しさん
垢版 |
2018/08/23(木) 15:41:42.39ID:nRYvmGHy
行列の内積や積の意味さっぱりわからずに単に数字の操作としてしかやってないからそんなつまんないところで躓くんだろうな
やっぱ線形代数の入門書ぐらいは読んどいた方がいい
0757デフォルトの名無しさん
垢版 |
2018/08/23(木) 15:45:33.72ID:9jntmGn7
■クソマウンティング警戒情報■

クラス1 大学の授業で線形代数をやっただけのおっさん
クラス2 大学には行かなかったが線形代数を独習したおっさん

このあたりが出没してるので気をつけましょう。
0759デフォルトの名無しさん
垢版 |
2018/08/23(木) 15:57:35.51ID:dSKkSrpr
線形代数知らないと大損だよ!

人工知能
ディープラーニング
機械学習
だけじゃないよ!

プログラミングでかなり重要
0761デフォルトの名無しさん
垢版 |
2018/08/23(木) 16:15:33.38ID:+UveuQfQ
>>757
ここは高卒率高い
0762デフォルトの名無しさん
垢版 |
2018/08/23(木) 20:57:35.73ID:n9wdMl+k
行列学ぶにはには画像処理がいいって、
それ一番言われてるから。
データサイエンスから派生してOPenCV
始めたけどかなり楽しいゾ。
数式見るだけより画像がどう変化するかを
確認するとアルゴリズムの意味や目的が
はっきりわかんだね。
0764デフォルトの名無しさん
垢版 |
2018/08/23(木) 22:27:21.08ID:n9wdMl+k
ライブラリを使うには数学知識が必須
なんだよなぁ…
例えばnumpyを使うのに行列知識ゼロじゃ
使いこなせない。
逆にnumpyを使っているうちに行列への
理解が深まるってこともあるし。
0766デフォルトの名無しさん
垢版 |
2018/08/24(金) 03:41:37.45ID:6wpy6wRV
回答がつくか自信がないですがいくつか質問です
@ 右上の▽E(w)の定義を教えてください
A なんで式の3行目のβにはtがくっついているのですか

https://i.imgur.com/cqdg8pC.jpg
0767デフォルトの名無しさん
垢版 |
2018/08/24(金) 05:08:08.95ID:c+mh3mBZ
>>569
もちろんある程度大学の数学をやった上で言ってるんだと思うんだけど
ある程度やった上での発言だとしたら頭が悪いわ
0768デフォルトの名無しさん
垢版 |
2018/08/24(金) 05:59:54.55ID:/QW9Joy2
>>765
行列式の計算とかnumpyで楽チン。
0769デフォルトの名無しさん
垢版 |
2018/08/24(金) 06:29:31.37ID:dwzt+F5U
>>766
>@ 右上の▽E(w)の定義を教えてください
損失関数Eの勾配
=δE/δw

>A なんで式の3行目のβにはtがくっついているのですか
学習の経過に従って、mとvの寄与度を調整して学習を安定させる
0771デフォルトの名無しさん
垢版 |
2018/08/24(金) 06:56:46.17ID:dwzt+F5U
Aの補足

学習の初期段階でtが小さい時にmとvを調整して学習を安定させる効果がある。

この式の分母はtが大きくなるとほぼ1になりほとんど変化しなくなる。
0774デフォルトの名無しさん
垢版 |
2018/08/24(金) 12:58:10.52ID:6wpy6wRV
>>766です
ありがとうございます、解決しました

tが0から始まるとすればbeta^0でそっから1引いたものが分母になるから分母0にならないですか?
0777デフォルトの名無しさん
垢版 |
2018/08/25(土) 22:43:44.04ID:xNcAdL4l
>>776
その畳み込みの次にある層からの誤差
0778デフォルトの名無しさん
垢版 |
2018/08/26(日) 00:28:46.57ID:ZbBrZXXn
誤差逆伝播法では誤差が下層から上層に伝えられていく。誤差が具体的に何かと聞かれても、正解値と推定値の差を順次上層に向かって伝えられていく値としか答えようがない。
0779デフォルトの名無しさん
垢版 |
2018/08/26(日) 00:35:44.23ID:czFWrRej
>>777
例えば畳み込み層の前がプーリング層だった場合具体的に何が誤差になりますか?
0780デフォルトの名無しさん
垢版 |
2018/08/26(日) 00:59:20.08ID:ZbBrZXXn
例えばMAXプーリング層では、下層から伝えられた誤差(偏微分値)を、順伝播時のMAXだったノードに伝えられる。MAX以外のノードには0が伝えられる。このようにそのノードの性質によって何が伝えられるかは変わってくる。
0781デフォルトの名無しさん
垢版 |
2018/08/26(日) 02:15:36.01ID:czFWrRej
>>780
そのプーリング 層の前が全結合層だった場合その層での誤差は何になるのでしょう?全結合層での入力層と隠れ層の間の重みとかですか?
0782デフォルトの名無しさん
垢版 |
2018/08/26(日) 02:36:56.87ID:DVI2ghbE
東京大学理学部数学科に入って、数論幾何学を勉強したい。
でも脇見恐怖症だしなぁ・・・・・。
0783デフォルトの名無しさん
垢版 |
2018/08/26(日) 08:52:46.06ID:Eme/jpQ6
>>781
全結合部の出力層で誤差関数で誤差を求めて後は入力側に向かってその誤差を各ニューロン毎に重み掛け算して分配していく。
分配が終わったら誤差、学習率等を使って各重みを更新。間違ってたら指摘お願いします
0784デフォルトの名無しさん
垢版 |
2018/08/26(日) 09:59:18.87ID:1PWWH1+1
>>783
「重み掛け算」というのが違う。どのように分配していくかは、順伝播時ノードの処理によって変化する。足し算ノードなら何もかけずに逆伝播させるし、掛け算ノードであれば逆ノードの値を掛けて逆伝播させるし。
0785デフォルトの名無しさん
垢版 |
2018/08/26(日) 10:05:05.45ID:1PWWH1+1
上記についてはこのページが詳しいかな
ttps://qiita.com/t-tkd3a/items/031c0a4dbf25fd2866a3
0786デフォルトの名無しさん
垢版 |
2018/08/26(日) 12:56:14.32ID:lds9ox+q
リアルプログラムでは学習した結果ってどうやって永続化してるの?
ファイルに書き出すの?
0788デフォルトの名無しさん
垢版 |
2018/08/26(日) 13:55:39.86ID:u+wmgHES
基本的には各サンプルを通して損失関数を最小化するθ(重み)が学習成果なわけだから
そのθをファイルに保存する
途中からの場合θのファイルをロードする
モデルによって他にドロップアウトやRegularization値など自動で最適化してるハイパーパラメータがあればそれもファイルに保存する
0789デフォルトの名無しさん
垢版 |
2018/08/26(日) 20:58:22.32ID:czFWrRej
>>785
ありがとうございます!
0791デフォルトの名無しさん
垢版 |
2018/08/27(月) 12:03:01.85ID:Q4eMB8Ps
起動に15時間
シャットダウンに7時間
0792デフォルトの名無しさん
垢版 |
2018/09/01(土) 12:14:47.04ID:wGe/Loro
CNNの畳み込み層でも活性化関数使うのが普通なんですか?

あと3次元フィルタを使ってますが、私のフィルタは2次元です。一度グレイスケールにしてからフィルタ適用しているので...この3次元フィルタを使うことの方が普通なのかな?
http://iup.2ch-library.com/i/i1931933-1535771487.jpeg
http://iup.2ch-library.com/i/i1931932-1535771487.jpeg

https://www.google.co.jp/amp/s/deepage.net/amp/deep_learning/2016/11/07/convolutional_neural_network

あと1層目でエッジ検出はわかるのですが、次の層でテクスチャ検出できるのが意味がわかりません、テクスチャって水玉模様とかそんなのですよね?
http://iup.2ch-library.com/i/i1931934-1535771654.jpeg
3次元フィルタを使うことに関しては特徴マップが何層もあるから?
0793デフォルトの名無しさん
垢版 |
2018/09/01(土) 23:34:32.22ID:gvHsCwll
全部チューニングの問題。その設定で精度のが上がれば、そのタスクにとっては「正しい」設定となる。
0795デフォルトの名無しさん
垢版 |
2018/09/02(日) 18:18:25.17ID:Gf+N3VgJ
色々深層学習のライブラリ弄ってて、モデルそのものを弄りたくなってきて調べたけど

既存の深層学習のライブラリ全部、iter中に計算速度稼ぐことメインに考えてて
気軽に独自モデル試せるようなもんじゃないんだな
ライブラリ使って新しいモデル作ってる研究者は低レベルで殴り合ってるわけだ
ソース見てもモジュール化されすぎてて全部理解するのには相当時間かかる

独自にモデル作ってる人らには頭が下がるわ
フルスクラッチでやったほうが実装そのものは相当楽だろ
でも今どきフルスクラッチでDNNの新モデル作ったところで研究者には見向きもされないんだろうな
0796デフォルトの名無しさん
垢版 |
2018/09/03(月) 01:01:43.69ID:esF28k94
そうでもない
がんがれ
0798デフォルトの名無しさん
垢版 |
2018/09/08(土) 17:42:16.54ID:RrQSE86D
似非サイエンス0でやってた
0802デフォルトの名無しさん
垢版 |
2018/10/24(水) 17:33:34.15ID:uzzb7okB
既存の数学的アプローチでは汎用人工知能は無理。
新しい数学を創造する必要がある。
0803デフォルトの名無しさん
垢版 |
2018/10/24(水) 19:03:25.41ID:+UZVhUuu
人間の脳の学習能率に対して、ディープラーニングでは人間ではあり得ない量のデータを力技で教え込んでいるという現状を考えれば既存理論では実現不可能なのは明白だな
根本的にやってることが違う
0804デフォルトの名無しさん
垢版 |
2018/10/24(水) 19:23:11.47ID:Tp5xd7NK
数学は万物を定量化して表すもの

数学に出来ないのはヒルベルトのように、解く方法が解らない問題と
世界の誰も未だに気づいていない問題
0806デフォルトの名無しさん
垢版 |
2018/10/25(木) 01:53:03.16ID:DXNVkP/m
そのうち人工知能の性能や危険性を監査する方法が必要になる
監査もAIにして相互に進化させる
人間のはるか上を行くAIになりそう
0807 ◆QZaw55cn4c
垢版 |
2018/10/25(木) 08:07:04.46ID:yGYVJ0zR
>>806
>監査もAIにして相互に進化させる
こういう自己学習はすべてのAIにて有効とは限らない、と思いますが
0808デフォルトの名無しさん
垢版 |
2018/10/25(木) 11:25:06.41ID:5Cy/pQlU
単にラグランジュとか●次スプラインとかで全点通す多項式作るようにしてるんだろうけど
こういうのって機械学習でも同じパラメータが出現するのだろうか
https://pbs.twimg.com/media/Dp8U1ioVYAEsXf3.jpg
https://twitter.com/yori_shirou/status/1053611678292570113
https://twitter.com/yori_shirou/status/1053611678292570113/photo/1
(そういう学習させればそうなるんだろう)
https://twitter.com/5chan_nel (5ch newer account)
0809デフォルトの名無しさん
垢版 |
2018/11/27(火) 10:18:08.02ID:Rh+mKowB
NNのパラメータが十分多ければSGDでも多項式時間で最適解に収束する事が証明されたな
https://arxiv.org/abs/1811.03962
0810デフォルトの名無しさん
垢版 |
2018/11/30(金) 20:30:28.58ID:1rBmpsWQ
十分多ければwww
0812デフォルトの名無しさん
垢版 |
2018/12/01(土) 12:32:12.07ID:ddsFX+Ib
ε-δ論法での「十分小さければ」みたいによくある表現だよね
0813デフォルトの名無しさん
垢版 |
2018/12/01(土) 14:53:57.91ID:ESkZNxmJ
t分布で自由度が十分大きければ正規分布になるとか、割とあちこちで十分大きければ論法は使われる
「十分大きい」というのが現実的なサイズなら何の問題もないし非現実的なサイズなら机上の空論というだけのこと
0814デフォルトの名無しさん
垢版 |
2018/12/01(土) 18:36:48.82ID:vZu4rQev
誤差曲面には極小値や鞍点が無数にあるにも関わらず、SGDで最適解に辿り着けてしまうのは自明では無い
経験的に知られていたが謎だった事が理論的に解明された事に価値がある
あと(指数ではなく)多項式時間と分かった事も大きいと思う
0816デフォルトの名無しさん
垢版 |
2018/12/12(水) 22:46:51.99ID:0lKVJ1Zp
初歩的なもので申し訳ありませんが
ゼロから作るDeep Learningの中の数式の変形で以下のような変形がありました。
どう変形したらこうなるのはわからないのですがどなたか教えていただけないでしょうか?

c exp(x) = exp(x + log c)
0817デフォルトの名無しさん
垢版 |
2018/12/12(水) 22:56:13.04ID:+Sf0mSLh
定義から追っていけばわかるだろ?

expてのはeを何回掛けたか
logはその逆

exp(log c) = cはcが特殊な値でない限り常になりたつ。

exp(a)exp(b)はeをa回掛けたものにさらにeをb回掛けることになる
これはexp(a+b)に等しい
0818デフォルトの名無しさん
垢版 |
2018/12/12(水) 23:11:36.04ID:0lKVJ1Zp
>>817
ありがとうございます。
言われてみればなんで気づかなかったんだろってレベルでした。
0819デフォルトの名無しさん
垢版 |
2018/12/12(水) 23:22:27.88ID:1Fc61En1
ln 左辺
 = ln (c * e^x)
 = ln c + ln e^x
 = ln c + x
ln 右辺
 = ln e^(x + ln c)
 = x + ln c

高校の算数で分かる
0820 ◆QZaw55cn4c
垢版 |
2018/12/13(木) 00:31:25.96ID:mMIcaeGH
>>816
c = exp(log (c))

まずこれを理解して

c・exp(x) = exp(x)・exp(log(c))
= exp(x + log(c))
0821デフォルトの名無しさん
垢版 |
2018/12/13(木) 09:30:18.60ID:MB2eDcb0
>>816
exp(x + log c)=exp(x)*exp(logc) 指数法則:exp(x+y)=exp(x)exp(y)
=exp(x)*c expとlogは互いに逆関数なので順番に作用させると元に戻る:x=exp(logx)
0822デフォルトの名無しさん
垢版 |
2018/12/13(木) 12:19:59.72ID:zFPTCGev
c exp(x) = exp(x + log(c))
log(c exp(x)) = log(exp(x + log(c)))
log(c) + log(exp(x)) = log(exp(x + log(c)))
log(c) + x = x + log(c)
0823デフォルトの名無しさん
垢版 |
2018/12/17(月) 22:36:41.36ID:hRfkLohO
ゼロから作るDeep Learningの中のAffineレイヤの部分で
行列の積 
X・W
をXで微分したものが
Wの転置行列
になっており、
X・W
をWで微分したものが
Xの転置になっていますがこの辺の説明がないためなぜそうなるのかわかりませんでした。
この辺は数学のどの部分をやれば理解できますでしょうか?いい参考書があれば教えてほしいです。

後同じAffineレイヤのバッチ対応版で、バイアス部分がすべてのバッチ分の加算になっていますが
これってどう解釈すればいいのでしょうか?
いまいちなぜすべてを加算するのか理解できませんでした。
0824デフォルトの名無しさん
垢版 |
2018/12/18(火) 00:08:54.26ID:Eo+uoiII
線形代数
0825デフォルトの名無しさん
垢版 |
2018/12/18(火) 11:30:12.35ID:/M0/bFGF
物理
0826デフォルトの名無しさん
垢版 |
2018/12/18(火) 13:30:30.43ID:Y4LQpz29
魔法
0830デフォルトの名無しさん
垢版 |
2018/12/18(火) 15:56:23.56ID:fQ2wN9mx
テンソルやろ
0832デフォルトの名無しさん
垢版 |
2018/12/18(火) 17:39:32.22ID:owoWX2Rf
アホは読めないだろ
0834デフォルトの名無しさん
垢版 |
2018/12/19(水) 19:39:29.81ID:hcWIkGDA
DeepLearningを試しにやってみたいけど
Chainerあたりが手軽なの?

ちなみに文系の馬鹿です。
回帰分析とSVMを
Pythonで試したことあります。
0839デフォルトの名無しさん
垢版 |
2018/12/24(月) 11:14:29.35ID:YXqLjtll
>>838
無料?
0843デフォルトの名無しさん
垢版 |
2018/12/30(日) 20:45:03.59ID:PVnIIL/g
>>838
どのクラウドがいいの?
0844デフォルトの名無しさん
垢版 |
2019/01/04(金) 00:56:54.65ID:WfC+XEH3
>>843
用途による
一般用途はAmazon、サクラ、google、Azure等

あとはサービス連携
ワトソンとか使いたいならIBM Bluemix
TPUで爆速機械学習とかならGoogle Cloud Platform

個人的な意見で申し訳ないが
使いやすいのはamazon aws
価格が安いのはGoogle、IBM
サクラは官公庁とかで従量課金NGとかでも相談に乗ってくれる
0845デフォルトの名無しさん
垢版 |
2019/01/04(金) 11:37:58.62ID:7pi2aX1x
>>844
ありがとうございます。
取引先は機械学習するのにAzuzeにしたのですが
利用料金が予想以上に高いと言ってました。
いろいろ検討してみます。
0847デフォルトの名無しさん
垢版 |
2019/01/04(金) 17:09:49.70ID:ByJNYGiG
本業の問題解決にディープラーニングを利用するかディープラーニング自体を本業とするかでクラウド使うべきかは変わる
GPUぶん回すのは学習時ぐらいなので前者なら実際は学習以外の仕事が大半を占めるのでクラウドの方が安く、後者なら学習させまくるのだろうからハード買った方が安い
0848デフォルトの名無しさん
垢版 |
2019/01/04(金) 20:33:58.41ID:2CE/kmBd
>>847
何気に無視できないのはデータ量
訓練データや最終出力に大量のデータを保存する必要があるときはクラウドが高くつく
GPUのランニングコストはさほどでもない
0849デフォルトの名無しさん
垢版 |
2019/01/05(土) 20:59:49.07ID:DJKkY02/
さくらの高火力コンピューティングとかめちゃ高いよな。
あれ誰が使うんだろ?
0850デフォルトの名無しさん
垢版 |
2019/01/06(日) 08:27:02.11ID:sqll98Te
>>848
大量のデータって数量的には何TB?
0851デフォルトの名無しさん
垢版 |
2019/01/06(日) 19:18:45.26ID:r6TnJvb+
>>845
利用料金、これからの課題やで

機械学習はこれからビジネスの世界になる
機械学習で精度はあがっても、その精度を出すためのコストが問題されるようになる
大半の用途ではコストがかさんで機械学習をする意味がない
(コストにはデータを集めるためのコストも含含まれる)

もう少ししたら、これが問題視されるようになる
0852デフォルトの名無しさん
垢版 |
2019/01/06(日) 19:56:09.20ID:/LWkk3mV
>>850
1TBのディスクはAmazon EBSの場合、帯域幅にもよるけど月当たり数千円から数万円。どのくらいを大容量というかは学習とのバランスによる。

GPUはEC2 P3でV100を使って一番安いオプションで24時間使い続けたとして月額25万くらい。実際にはこの1/3くらいだから月8万円としよう。

そうするとランニングコストのうち10%前後はストレージの容量に払うことになる。これを計算機コストに置き換えるとクラウドのストレージが如何に高いか分かる。

V100搭載の計算機は200万円くらい、かつ24時間回しっ放しだと電気代が月々数万円かかる。かりに1/3だとしても1〜2万円くらいだろうか。

※このクラスだと納期に最低2週間、必要なら電源工事、さらには固定資産税が掛かるが今は置いておこう。

大雑把な計算だと、GPU計算機の購入費用はクラウド換算では2.5年間くらいに相当する。2.5年もすると計算機の大幅な性能向上も見込まれるので、クラウドの有用性が分かるだろう。

一方1TBのSSDが2万円切る中、同じ容量のストレージをクラウド上で保持しようと思うと、1〜3ヶ月程度しか持たない。もちろんサービス用の高いストレージを使うのもありだが学習用途なのであまり意味がない。
0854デフォルトの名無しさん
垢版 |
2019/01/06(日) 21:06:59.54ID:r6TnJvb+
>>852
コストは掛かるのはわかるが、それによって
なにが得られるかだよな

コストを掛けた以上の利益が得られなければやる意味がない

まあ今はまだ検証段階でそこまで考えられる所まで来てないんだろうけど
いいよな。結果が出なくても良い段階っていうのはw
0855デフォルトの名無しさん
垢版 |
2019/01/06(日) 21:07:13.61ID:sqll98Te
>>852
ストレージは利用者に提供した分は必ず確保して使えるようにするから占有だけど
GPUは隙間時間を別の人が使ったりできる点は違うんじゃね
0856デフォルトの名無しさん
垢版 |
2019/01/26(土) 14:56:07.98ID:yVAkGzul
不正統計ω
0858デフォルトの名無しさん
垢版 |
2019/01/27(日) 16:49:33.49ID:jpJeg/KH
仕事で国の統計データ使うこと多いのに
マジで勘弁して欲しいぞ
0860デフォルトの名無しさん
垢版 |
2019/01/27(日) 17:55:29.03ID:jpJeg/KH
計算できるようにデータを
纏めるのが大変なんじゃ!
0861デフォルトの名無しさん
垢版 |
2019/01/27(日) 17:57:03.48ID:DIPYZuxb
この地域にはこういう属性の人が多いからこういう戦略で行こうとビジネスの意思決定に使ってた国のデータが嘘だった場合、
これからのことは正しいデータで計算し直せば済むが過去の莫大な機会損失も補償してくれなければ意味がない
0865デフォルトの名無しさん
垢版 |
2019/01/28(月) 12:43:29.94ID:ji//xT0N
ほんとにまともなAIなら
学習の結果として
不正な統計データが入力されたら
受け付けずに突っ返す動作にするのが理想だな
0866デフォルトの名無しさん
垢版 |
2019/01/28(月) 15:04:36.07ID:P7GqkI/F
>>865
それは不正統計を判定するために学習させた場合であって普通は誰もそんなもの作らないから
0867デフォルトの名無しさん
垢版 |
2019/01/28(月) 15:12:52.73ID:DqvraBYP
危機管理だろ、データが不正の場合当社は責任をもちませんと契約書に入れておくとか
0870デフォルトの名無しさん
垢版 |
2019/02/20(水) 17:51:51.87ID:/eXmn/gb
クラウド企業は大儲け!

クラウド使う意味が分からん?
0872デフォルトの名無しさん
垢版 |
2019/02/22(金) 13:14:44.17ID:PtH+29Wq
だれを相手に書いてるかが問題で

「日経の経済教室」

なら
あっそう
でおわり
0873デフォルトの名無しさん
垢版 |
2019/02/22(金) 13:27:59.38ID:mJNXNf/+
でも出力と教師信号の差を小さくするっていう点では
最小二乗法と同じじゃね?

多層にする事でより精度よく
複雑な問題に対応可能になっているけど
もっとシンプルな構造で
同様の出力をできれば
学習の計算力も少なくて済む
0874デフォルトの名無しさん
垢版 |
2019/02/22(金) 13:46:43.30ID:1tWgvkMd
別に、理解している人からすれば
どうでもいい話しだよね。
0875デフォルトの名無しさん
垢版 |
2019/02/22(金) 15:06:08.21ID:9D6v3kso
別に最小二乗法である必要性はないし教師と予測の差を測る何かしらがあればいいだけなので全く本質的ではない
0876デフォルトの名無しさん
垢版 |
2019/02/22(金) 15:13:01.54ID:mJNXNf/+
>>875
短い言葉で判りやすく伝えるにはどういう表現がいい?
0880デフォルトの名無しさん
垢版 |
2019/02/22(金) 17:46:31.58ID:el9/87PC
>>873
ディープラーニングを一言で説明しろって言われて
A. 最小二乗法みたいなもの
B. ニューラルネットワークを沢山繋げたもの
のどっちの説明が適切かだな

実際はAの最適化の要素とBの深いネットワークの要素のどちらも重要だから、片方だけ説明すると片手落ちになって突っ込まれる
0881デフォルトの名無しさん
垢版 |
2019/02/22(金) 17:54:08.28ID:PtH+29Wq
小学生に説明するときと猿に説明するときで説明の仕方変えるだろ
臨機応変に出来ない方が馬鹿
0882デフォルトの名無しさん
垢版 |
2019/02/22(金) 18:02:57.51ID:9C0ENtC1
猿に教えてるところを録音されて晒し者にされたのが今回の事案。
「猿が相手だったので猿向けに説明してたんです」とは相手もいる以上言えんわなw
0884デフォルトの名無しさん
垢版 |
2019/02/22(金) 19:05:45.63ID:mJNXNf/+
>>880
ニューロンを沢山繋げたもの
って言われてそれで何ができるの?って思うけどな

炭素を沢山繋げたもの
って言われても価値があるものなのかわからない
炭なのかダイヤモンドなのか
0885デフォルトの名無しさん
垢版 |
2019/02/22(金) 19:08:13.79ID:mJNXNf/+
>>884
結局は聞く側が何を知りたいのかによる
それによってどんな観点で説明するか変わる
0887デフォルトの名無しさん
垢版 |
2019/02/22(金) 19:58:44.79ID:KXSRl5z4
ディープラーニングが何者か一言で説明しろと言われて一言で説明したらそれじゃ分からんと言われ、厳密に説明しようとしたらそんな難しい話理解できないと言われ
0890デフォルトの名無しさん
垢版 |
2019/02/23(土) 12:37:31.13ID:+DV3f+Dk
単純労働はもう人間がやる時代じゃなくなった
DLが判らない人は職を失います
DLが判る人は信用を失います
0891デフォルトの名無しさん
垢版 |
2019/02/23(土) 12:43:45.09ID:aRr2CtyI
データによって関数近似するだけですと答えりゃ良いんだよ。
deepが今までの機械学習と違うのは関数を表すパラメータが多いだけ。
(まあ多いからそれなりの学習法が必要になるってことではあるのだが。)
0892デフォルトの名無しさん
垢版 |
2019/02/23(土) 12:47:45.21ID:+DV3f+Dk
確かに「関数って何?」ってレベルの相手に「最小二乗法」とか言っても伝わらんよな
0893デフォルトの名無しさん
垢版 |
2019/02/23(土) 13:05:49.57ID:9M6azXgX
そもそも最小二乗法知らないレベルの人がディープラーニングの意味を知ったところでその知識に使い道などない
0894デフォルトの名無しさん
垢版 |
2019/02/23(土) 14:02:48.73ID:YsidP2kG
>>891
パラメーターの多さは本質的じゃない
他のモデルでも増やすだけならいくらでも増やせるし
0895デフォルトの名無しさん
垢版 |
2019/02/23(土) 14:27:17.84ID:aRr2CtyI
>>894
本質か本質でないかはわからんといったところだろ。
例えば混合ガウス分布のパラメータをdeep learning並にしてSGDで学習みたいなことを
実験した結果とかみたことないし、どれくらい差が出るのかは誰にもわからん。
0896デフォルトの名無しさん
垢版 |
2019/02/23(土) 16:02:59.35ID:lNz7SHfN
幅が効いてるのか深さが効いてるのか判らんぬ
0899デフォルトの名無しさん
垢版 |
2019/02/23(土) 16:19:13.67ID:44PmOqBU
>>883
そうやな
ちゃんと片端って言わないとな
0901デフォルトの名無しさん
垢版 |
2019/02/23(土) 16:26:26.19ID:smDG7LGU
>>896
深さが効いている
NNの深さは表現力に対して指数的に効くが、幅は多項式的
だから「ディープ」ラーニングがここまで流行った
0902デフォルトの名無しさん
垢版 |
2019/02/23(土) 16:29:50.37ID:lNz7SHfN
>>901
なるほど
まつおっさんはそこを説明し忘れたと
0903デフォルトの名無しさん
垢版 |
2019/02/23(土) 17:13:34.69ID:qQy3QKMA
わざわざ"ディープ"ラーニングだと言ってるのに今更「深さが重要だよ」程度の説明までしてやらなきゃならないのか
無知というのは本当に面倒だな
0904デフォルトの名無しさん
垢版 |
2019/02/23(土) 17:48:49.92ID:lefeMdOl
>>901
深さはなぜ聞いてるんですか?
何に聞いてるんでしょうか?

まさか、非線形だからなんて答えないですよね?
0905デフォルトの名無しさん
垢版 |
2019/02/23(土) 18:09:54.05ID:2Bb0KoDB
自分で調べて理解する方が早いのをなぜわざわざ他人に聞くんだろう
自力でやるほどのことではないと言うならそんなことを知ったところで君の人生において使い道などないだろうに
0906デフォルトの名無しさん
垢版 |
2019/02/23(土) 18:42:59.52ID:hvNgcyAg
>>904
それはね、ふか〜い意味がある
でいいんじゃないか?
0907デフォルトの名無しさん
垢版 |
2019/02/23(土) 18:53:50.90ID:smDG7LGU
>>904
同じ関数を同じ精度で近似したい時、幅を増やすよりも深くする方がニューロンが少なくて済む
理論的な所は論文がいくつもあるがフォロー出来てない
0908デフォルトの名無しさん
垢版 |
2019/02/23(土) 19:02:21.42ID:+IwGCrFN
>>903
理論上は古典的な三層のMLPで関数の任意精度近似が出来るのになぜ"ディープ"にする必要があるのか? とか少しNN齧れば誰でも思い至る疑問を感じず、「"ディープ"ラーニングと言う名前だから深さが重要」で思考停止している人間よりマシだな
0909デフォルトの名無しさん
垢版 |
2019/02/23(土) 19:08:30.62ID:C1vMZKUS
ゆうてもこのスレでディープラーニングのコード書いたことあるやつってほとんどいないよね?
0914デフォルトの名無しさん
垢版 |
2019/02/23(土) 20:30:39.92ID:dhwbkJVr
>>913
理由として公理系から出発するレベルで厳密な証明を求めるならこんな所で聞かないで論文を読むべき
単にマウント取りたいだけならその限りではないが
0915デフォルトの名無しさん
垢版 |
2019/02/23(土) 20:57:11.51ID:+IwGCrFN
>>913
公理系の意味理解してるか?
標準的な数学の公理系に基づいているならわざわざそこから出発する意味はないよ
1+1の証明から始めてたらいつまで経っても目的の議論にたどり着けんやん
0919デフォルトの名無しさん
垢版 |
2019/02/23(土) 23:37:24.82ID:3YtKndGk
鬼束ちひろを理解できるAI。
人間には無理。
0920デフォルトの名無しさん
垢版 |
2019/02/24(日) 00:36:01.42ID:xoljfRCp
始めの仮定の部分を示せばよいと言っている
その仮定が確からしいかどうか怪しいと言っている
0923デフォルトの名無しさん
垢版 |
2019/02/24(日) 03:00:13.95ID:NqeQYE6u
>>920
正しいか正しくないかは実験して確認するしかない
ヒッグス粒子にしろ相対論にしろ実験で確認できるまでは仮設

正しいかどうかに関係なく論理展開は可能
相対論で言えば光の速さが最速で一定というのは
実証されていない段階で論旨展開されて
時空間の相対性が導かれたと思う
0925デフォルトの名無しさん
垢版 |
2019/02/24(日) 05:10:43.25ID:AXtZKrFv
「全」が最強ですか?
0926デフォルトの名無しさん
垢版 |
2019/02/24(日) 09:54:45.28ID:yqjhGBK+
>>908
少しNN齧れば誰でも思い至るようなありふれた疑問なら少し調べればいくらでも答えは見つかるだろうになぜ自ら調べないのか
0927デフォルトの名無しさん
垢版 |
2019/02/24(日) 10:56:47.83ID:qLJosHl4
調べても深さと幅の関係はそんな単純ではないという結論だがな。
深さをあげれば掛け算で表現ノードが増えるという理屈はあるがあれはあれで怪しいし。
とりあえず実験的には深さを増してった方が有効というのは正しそうだが。
0929デフォルトの名無しさん
垢版 |
2019/02/24(日) 16:41:44.01ID:2fcQjxFq
>>906
不快な解答です
0930デフォルトの名無しさん
垢版 |
2019/02/24(日) 16:55:23.56ID:2fcQjxFq
>>923
>光の速さが最速で一定というのは

これどうやって実証されたの?
0932デフォルトの名無しさん
垢版 |
2019/02/24(日) 17:09:07.22ID:jKObQ1kj
>>930
それが実証されたとは書いていない
導かれた予言が実証された
0935デフォルトの名無しさん
垢版 |
2019/02/24(日) 19:38:54.50ID:dH1jxY0q
そっか、光の速度は量れたが
測定手段としては一定という量り方はないんだな
0938デフォルトの名無しさん
垢版 |
2019/02/25(月) 10:57:08.92ID:Opp/wdL5
>>933
当時その実験やってる最中に偶然重力波が観測(というか観測じゃなくて到達と言うべきか)されてたら
歴史は変わっていただろうね
0940デフォルトの名無しさん
垢版 |
2019/02/27(水) 12:36:16.84ID:+TCpifLa
重力波なんて小さ過ぎて検出されないだけで
常に到達し続けていると言っても過言ではない
0948デフォルトの名無しさん
垢版 |
2019/02/28(木) 11:14:13.22ID:01EONdyB
後から誰も何も確認できないなら観測していないのと同じだからね
「宇宙人見ました!写真も映像もないけどね」だと他人からすれば何の価値もない
0949デフォルトの名無しさん
垢版 |
2019/02/28(木) 11:53:17.30ID:yVNPvTLf
まあダークマターとか言われてるものも
パルサーのスピン軸がたまたま地球の方向を
一度も向かないだけのものが
ものすごい量あるんだろうなあ
0950デフォルトの名無しさん
垢版 |
2019/02/28(木) 12:56:20.11ID:+rccLB4x
>>949
何がどれだけあるかはっきり分かっていないので、
何かないと計算が合わないから何かあることにする
ここまでは分かるんだけど、

宇宙はダークマターで満ちている!←おかしくね?
0951デフォルトの名無しさん
垢版 |
2019/02/28(木) 13:03:52.47ID:yyOtWed3
そういう苦情はNHKに言おうぜ
0953デフォルトの名無しさん
垢版 |
2019/02/28(木) 20:02:44.99ID:mtH3V3ZR
おまいら
単なるデータへの
あてはめに
高尚なこと
求めすぎだと
思うぞ?

うまくあてはまった!
マンセー!

で、いいじゃん?
0954デフォルトの名無しさん
垢版 |
2019/02/28(木) 20:21:08.20ID:xdOF/Hzc
>>950
おかしいと考える人も普通にいるだろうね。
エーテルはなかったがヒッグス粒子はあった、
とされている。
結局一番観測結果を説明できるモデルは何かという話。
0957デフォルトの名無しさん
垢版 |
2019/02/28(木) 21:52:28.50ID:+rccLB4x
>>954
理屈上これ以上物質はないはずだから残りはダークマター←わかる
どれだけ物質があるかわからないけど残りはダークマター←意味不明
ということを言いたいわけだが。
0963デフォルトの名無しさん
垢版 |
2019/03/01(金) 13:02:14.00ID:ozM8zBQ9
魚でも地上(空中)の人間の顔とか識別してるし
虫が飛んで来たら水面より上にジャンプして虫捕まえる鯉とかいるし
961 は仮説以前の問題
0965デフォルトの名無しさん
垢版 |
2019/03/01(金) 19:59:30.11ID:zZVuhjrI
>>928
受けた。物体検出精度指標の計算問題とか出たねw
定義知らないと死亡。数学っていうか算数か。
0966デフォルトの名無しさん
垢版 |
2019/03/01(金) 21:31:08.03ID:Y8fj+4tW
>>957
すまん、
上になぜ納得できないのか下はなぜ納得できるのかさっぱりわからん。
別にどっちもどっちにしか思えないんだけど。
0967デフォルトの名無しさん
垢版 |
2019/03/01(金) 23:57:07.46ID:7Z9PQtlK
>>957
科学に対するスタンスの違いかと。
観測できないものに想いを巡らせたところでそれは想像でしかなく宗教みたいな水掛け論になって不毛。
あくまで現時点で観測できるものがすべてで、それで説明できない部分はXと置いてそれが何かを考えましょう、という発想なのかと。
公平な立場だとだと思うよ。
0968デフォルトの名無しさん
垢版 |
2019/03/02(土) 00:00:17.81ID:+5R2WUKR
まだまだ分かんないことがたくさんあるよね、区別とか分類すらできないし、話がしやすいようにとりあえず一くくりにしてダークマターって名前つけとこうか、ぐらいの事だと思います。
0970デフォルトの名無しさん
垢版 |
2019/03/02(土) 01:53:18.36ID:WE+y6WN7
>>966
下は「残り全部」とか言ってるけど、観測できないだけの物質があるかもしれないじゃん。
0972デフォルトの名無しさん
垢版 |
2019/03/02(土) 10:11:28.63ID:fiwzYa51
ダーク股

なんか臭そう
0974デフォルトの名無しさん
垢版 |
2019/03/02(土) 11:36:13.20ID:+L4gK20K
統一理論ニダ

説明出来ないものがある

観測出来ないものが影響していることにしよう
↓←(この時点で既に観測出来ないのに「存在すること」が前提になっている)
補正したニダ

上手く行った


これって天動説だろ
0976デフォルトの名無しさん
垢版 |
2019/03/02(土) 13:12:21.37ID:DCeemCxf
理論的には何かが存在するという前提を置かないと成立しないが今のところ観測していないものをダークマターと呼ぶだけ
理屈も何もないけど適当にダークマターとやらを登場させたわけではないわけで、指摘は的外れすぎる
0977デフォルトの名無しさん
垢版 |
2019/03/02(土) 15:13:05.80ID:dBQH/Cna
>>969
たとえばAI系の知識が全くない人がAI系部署に配属されちゃったりした場合みたいな
- 本人に基本的な知識がない
- 関係者一同からも素人だと認識されてる
みたいな状況sだったら、講座も含めて資格取得に向けた行動aをとることに対する収益Eはたかいんじゃね?

みたいな行動価値関数 Q^π(s,a)だと思う。
0978デフォルトの名無しさん
垢版 |
2019/03/02(土) 15:27:58.06ID:YyFRO3t1
>>969
とる事自体の価値は分からんが、漠然とAIの勉強するよりは資格という分かりやすい報酬に向かって進む方がメンタル的に良いと思う
0980デフォルトの名無しさん
垢版 |
2019/03/02(土) 17:41:24.93ID:moD+CRH3
>>969
企業が社内エンジニアの教育によく使ってる

個人で受ける人はE資格は今のところ少ないね
英語分かるならコーセラの無料コース+ディープラーニングコースなら同程度の内容だし
0981デフォルトの名無しさん
垢版 |
2019/03/02(土) 17:57:48.91ID:DCeemCxf
資格取らなくてもいいけどその分野で普通に働いてる人が取れるレベルの資格が取れないのはヤバイ
取らないのか取れないのかの区別が大事
0982デフォルトの名無しさん
垢版 |
2019/03/02(土) 21:51:38.20ID:W81kTJxo
データ分析して15年。
資格?はあ?って感じる。
0984デフォルトの名無しさん
垢版 |
2019/03/03(日) 00:12:43.79ID:oVEKznCH
大企業とかでこの資格持ってる人は優先的に採用しますみたいなのが出てきたら機械学習の分野にだって資格は定着するよ
0985デフォルトの名無しさん
垢版 |
2019/03/03(日) 01:19:08.01ID:wfftRGsB
大企業は、そういう資格を持ってる人を「使う」だけで
採用したいと思うかどうかは別の話だな。
0986デフォルトの名無しさん
垢版 |
2019/03/03(日) 06:18:40.27ID:ChZC+e8W
>>979
そうでもない
0987デフォルトの名無しさん
垢版 |
2019/03/03(日) 06:19:44.07ID:ChZC+e8W
>>981
本質は実務の方だよな
0988デフォルトの名無しさん
垢版 |
2019/03/03(日) 06:21:24.19ID:ChZC+e8W
>>984
資格は定着しても(それも怪しいが)技術は定着しない
今の日本の凋落っぷり見れば判るだろ
0989デフォルトの名無しさん
垢版 |
2019/03/03(日) 12:30:48.80ID:x8Qrwy2l
とりあえず老害にならないこと。
データ分析?15年?はぁ?
それが資格なんかよりもずっと重要。
0992デフォルトの名無しさん
垢版 |
2019/03/03(日) 16:45:29.82ID:ObzEoum5
若い自惚れた馬鹿連中が
『私はデータサイエンティストです!』
とか言ってるんだ。
論文も書いたことないのにw
控えろよクズ!
0993デフォルトの名無しさん
垢版 |
2019/03/03(日) 16:47:35.05ID:ObzEoum5
>>989
若害がひどい

ど素人の馬鹿のくせに
『私はデータサイエンティストです!』
とかw
0994デフォルトの名無しさん
垢版 |
2019/03/03(日) 17:31:04.18ID:ewmKZfia
自称データサイエンティスト「ロジスティック回帰?何ですかそれ」
0995デフォルトの名無しさん
垢版 |
2019/03/03(日) 17:55:15.29ID:E4UxtVYi
データマイニングと何が違うん?
0997デフォルトの名無しさん
垢版 |
2019/03/04(月) 04:15:30.30ID:DAN4+o0x
wikipediaで

機械学習
ディープラーニング
データマイニング

それぞれ同じ絵で説明されてたわω
0998デフォルトの名無しさん
垢版 |
2019/03/04(月) 20:09:50.95ID:SGJ/lNia
ディープラーニングやってみてるけど、
こりゃ難しいわ。
さっぱり分からんので、
書店にいって分かりやすそうな本買ってきたw

アホな俺は涙目!
0999デフォルトの名無しさん
垢版 |
2019/03/04(月) 20:18:47.22ID:AYtclDj4
>>998
マセマ の馬場先生に「ディープラーニングのための数学」でも書いてもらわんとな。
石村夫妻でも
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 797日 8時間 13分 57秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況