人工知能ディープラーニング機械学習のための数学 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
話題性でかつ人が今のところ少ないから
金が高いそれだけだろね。
いつまで続くか、結構長く続くかもしれないし
短いかもしれない。
なにしろ、独自のアルゴリズムでなんてのを追い求めて
金になりなんて人は一握りのそのまた一握り。
あとは、パッケージ化された手法を使いまわす応用アプリケーションに
なるので。そこまで金にならなくなるだろね。
でも今は金になってるのは事実でしょう。 人件費、計算資源、教師データの収集
この辺り
特に、普通の写真や動画に含まれる文字認識とかになると、
・文字列の範囲の認識
・文字の分割
・文字の認識
と沢山の工程があって、実質的に複数の学習が必要になって非常にコストがかかる 人工知能って結局バブルなん?
なんか医療用の画像診断と翻訳以外だといまいち結果残せてない気がする
EVはともかく、たぶん自動運転はぽしゃるかんじがするし 誰もわからんってのが答えだろ。
とりあえず言えることは人工知能は20~30年周期で盛り上がったり盛り下がったりはしてる。
300年後とか逆に遠い未来ならともかく、10年、20年くらいじゃどうなるなんて正確には誰もわからんよ。 自動運転は要求される精度が厳しいからまだ難しそうだな
LIDARとかハードウェア的なコストの問題もあるし 後から人間の目でチェックできる用途だとアプリケーションに合わせてprecisionかrecallのどちらかが高いのを選択すればいいけど、
自動運転は両方が高くないと危険だからな 自動運転で動きが無いものの判別が難しいらしいね
米国で駐車していた消防車に激突 岡谷貴之著『深層学習』のpp.17-18に
「事後確率 p(d=1 | x) は、条件付き確率の定義から
p(d=1 | x) = p(x, d=1) / (p(x, d=0) + p(x, d=1))
と書けます。」
と書いてあります。
例えば、 p(x, d=0) は 入力が x で正解が d=0 である確率のことでしょうか? >>316
ありがとうございます。
ということは、
>>313
の
「例えば、 p(x, d=0) は 入力が x で正解が d=0 である確率のことでしょうか?」
は間違っていないということですか? >>313
p(d=1 | x) = p(x, d=1) / (p(x, d=0) + p(x, d=1))
これは、
p(d=1 | x) = p(x, d=1) / (p(x)
とも書けますか? >>319
その本持ってないけどdは1か0しか取れないんでしょ?
であれば、そう書ける
つーかそれが条件付確率の式で (p(x, d=0) + p(x, d=1))の形式はベイズでよくやる表記 >>320
ありがとうございます。
はい、 d = 0 か d = 1 です。
x は、人物の画像で、その人物が男性の場合 d = 1、
女性の場合 d = 0 という例が書いてあります。
p(x) というのが分かりません。入力となる人物の画像の集合 X の要素 x に対して
p(x) を計算するということですが、 X を定義することなどできるのでしょうか? あるフォーマットのすべての画像の集合 = X ということですか? 岡谷貴之著『深層学習』のpp.17-18の辺りが何を言いたいのか分かりません。
この本を持っている方に解説をお願いしたいです。 ロジスティック関数 y = 1 / (1 + exp(-u))
の y は確率と解釈した。
では、 u は何であるか?
それは、
log(p(x, d = 1) / p(x, d = 0))
と解釈できるということが言いたいのでしょうか? 多分、「xという観測結果から、dが0なのか1なのかを判断しようとしている」 ことを理解できていないね >>328
p(d=1 | x) は入力が x であるときに、 d=1 である確率だと思います。 人物の画像ではなくランダムな画素値をもつノイズのような画像を与えても、
それが男性(d=1)である確率はいくらだとか女性(d=0)である確率がいくらであるとか
ナンセンスではないんですか?
というかそもそも出力をなぜ確率だと解釈するんですか? で、ロジスティック関数 は1か0かの判別に有効な関数ね
これで大体わかると思うけどどうかな 活性化関数についても疑問があります。
始めは生物をモデルとしてシグモイド関数を使っていたそうですが、
正規化線形関数のほうが性能がいいとか、間抜けすぎませんか?
なぜ生物を真似るというような馬鹿なことをするのですか? それとある手法がなぜうまくいくのかの説明が本に書いてないです。
「この手法ではこうする。そうするとうまくいくことが論文で報告されている」
みたいなパターンばかりです。 この分野の特徴を一言で言うと「考えない」。
起源は生物の真似(真似できているかどうかも疑問)。
その後はそれを単純化してみたらもっとうまくいった。
色々試してみてうまくいく手法がみつかる。
でも理由については一切説明しない。 やっていることは関数のパラメータ W と b の最適値を見つけるという単純は話。
ただ、規模が大きいから難しいというだけの話。
別に夢のある分野でもなんでもない。
神経細胞もなにも関係のない話なのに、なぜかニューラルネットワークとか
言い出していかにも人工知能を研究しているんだという雰囲気を醸し出す。 courseraのmachine learningのコースでもやると良いよ
無料だし多分君でも分かる >>341
ものすごく考えているんだけど、頭が悪いと実質考えていないになる
で、掲示板で教えてクレクレ >>340
嘘じゃない情報を与えて結果が受け入れられれば合意の成立
詐欺じゃない ディープランニングという言葉はもう陳腐化してます
これからはディープスロートと表現するようにgoogleを説得してきます >>340
ブームってそういうもんだよ
技術の本質をわかってなかったり、意図的に隠してたりする大衆向けに捻じ曲げられた広告が出され、
勘違いした一般人が増加していく
機械学習は成果物があるしやれることやれるからまだまだ全然マシなほう
ブロックチェーンなんか…おっと誰か来たようだ ブロックチェーンに比べると「アカデミックで価値ある」とかそういう誤魔化し方をする輩が多い印象 逆ですよね、特に日本では、学会論文として認められづらい。
だから研究者(特に大学関係)も力がないらなかったというか
やらなかったといった方が正しいですね。そんで遅れが出た。 深層学習を研究したいのか
人工知能を研究したいのか >>348
いやそういう被害者ぶった奴が多いってことだよ。
外国の学会でも提出すればいいだけの話では?
日本の大学関連で残りづらくなってるのは別にこの分野に限らんでしょ。 >>350
そうね、海外で発表は有だしそうすればいいと思うし
実際にそうやってきた人たちはいる。
実業界の人が多いけどね。そういう方はいまは大学に戻って
教えている方も多い。 >>348
研究してる先生がダニ次ブームが終わった後に減ったから専攻する学生も減っただけじゃね
優秀な論文ならIEEEとかに出せばいいだけ >優秀な論文なら
優秀ならそうするだろね
その前にこの分野をやる人が減っちゃていたほうの問題 >>352
世界的に減ったわけでなく
日本が特に減ってしまったというところがねー 物理や純粋数学に比べればまだいい方だろ。。
まあそういうの抜きに学術全般で日本が衰退してるってのはあるが。 >>301
投資関連はすごいよ、巨額マネーを投入
投資ファンド、ヘッドファンドは収益に直結、他のAIに負けると廃業
学生を大量採用、インドや中国からも 深層学習
Ian Goodfellow
固定リンク: http://amzn.asia/gIgFNu5
翻訳されるんですね。 >原山優子,井上智洋,久木田水生,古田貴之,山川宏,山田誠二
おいしいの? 「人工知能」にマッチしました.
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:AI=人工知能の技術が急速に発展し、自動運転やロボットなどさまざまな分野で活用が広がっています。AIは私達の暮らしや社会をどう変えるか?6人の専門家が討論します
放送日:2018年02月04日
開始時刻:09:00 「人工知能」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:人工知能やロボットを使い未来型の農業を目指す会社がある。社長の菅谷俊二。最先端技術で病害虫の予防・駆除を行い、農業の未来を切り開く技術者の挑戦を伝える。
放送日:2018年02月04日
開始時刻:27:30 「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:将棋好き芸能人とプロ棋士が対局する将棋バラエティー!永世七冠達成の羽生善治VS俳優・東出昌大!AIロボット対局!ひふみん将棋講座!藤井聡太が難問詰将棋を出題!
放送日:2018年02月10日
開始時刻:13:30 「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:時代の先端を走るAIロボット開発者である林要が、日本を代表する仏師の松本明慶と対談。「魂のよりどころ」となるものを作る神髄について語り合う。
放送日:2018年02月10日
開始時刻:22:00 f = lambda w: net.loss(x, t)
引数の w を使っていない。
net, x, t はグローバル変数ですか? numerical_gradient(f, x) は引数として 多変数の関数と数ベクトルをとりますが、
他に、 net, x, t を引数としてとるようにしなかったのがいけないのではないでしょうか? b = 2
def f(a):
■■return b
print(f(b))
>>371
のプログラムは↑こんな感じのことをやっていますよね。
この著者の頭は大丈夫でしょうか? >>371
よくこんなひどいプログラムを載せて恥ずかしくないですね。
こんな人が『入門Python 3』の監訳者であるというのが不思議です。 >>371
numerical_gradient に渡す最初の引数(コスト/損失関数)fはラムダ式である必要があるが、実際には net.loss 関数と net のコンストラクタで初期化した net.W と x と t で計算が済んでしまう
lamda 式には引数として何か定義しないとならないため、ここでは w を使っているが実際には他の変数と被らなければ z でも何でもよい numerical_gradient の実装をニューラルネット用に変えるのが正しいやり方ではないでしょうか? 紛らわしい使わない引数は
_ っていう名前にするべきだが
そんな些細な事通り過ぎてぶっとんでるソースだと思う
糞本はこれに限らず山ほど出てるし気付いたら近寄らないこと
時間の無駄 >>378
関数の微分だけならわざわざ別に用意する必要もない
特定の入力に対しては使えるけど、他の微分に使えなくて怒り出す人も出てくるだろうし
まあでも、自分でいい方法考えてプルリクエスト送れば第2版に反映してくれるんじゃないの 確率的勾配降下法では、最適化対象の関数が毎回変わりますが、それでも
OKなのはなぜでしょうか? 「AI」にマッチしました.
「PC」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▽IT農家が自作したAIきゅうり選別機 ▽インターネプコンジャパン ▽胎児のエコー画像から作る3Dオブジェ
放送日:2018年02月16日
開始時刻:15:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=11&area=001&date=&tz=all&mode=2&next=&f=week なぜ「誤差」逆伝播法というのでしょうか?
「誤差」とは何ですか? 現実のおまいらが理想の彼女に告白すると誤差が発生する
ダメ出しされた所を順番に直していくのが逆伝播 「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▽AIで残す思い・ホロコースト生存者と対話できる博物館・亡くなった恋人との会話▽各国放送局の注目ニュース▽NY経済情報▽世界の天気ほか※内容変更の場合あり
放送日:2018年02月14日
開始時刻:07:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=11&area=001&date=&tz=all&mode=2&next=&f=week TensorFlowではじめるDeepLearning実装入門 (impress top gear)
新村 拓也
固定リンク: http://amzn.asia/0qxGgTc
↑この本は、どんな本ですか? ディープラーニングのまともな学習用のパソコンの最低スペックはどれくらいですか?
一番安いモデルでもOKですか? ↑教科書の粗探しをして著者を見下すのが仕事の松坂君です↑ >>403
いえいえ、教科書が必ずしも正確ではないことを白日のもとに晒すという批判は重要だと思います
私は松坂君を応援しています ■ このスレッドは過去ログ倉庫に格納されています