人工知能ディープラーニング機械学習のための数学 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
>>251 三浪とか学部は文系だったけど研究者になった人とかはたまにいるから 理系の大学院に進学すること自体は別にいいとおもうけど 今人が集まって生きているから、パッと思いつくアイデア、面白そうな研究テーマは 既に誰かがやってしまっていて、自分がやることにはブームが去って 自分は周回遅れで、その残りカスをやる羽目になって後悔する可能性はあるよ。 >>261 え、理系って大学院でても別に研究者になるとは限らないんじゃないの?ある程度のレベルの大学以上だとほとんど大学院に進学するみたいだし それとも時期的な話?今から5年後にはもうAI自体が下火になってるってことか?? >>249 3浪はさほど生涯にはならないと思うけど、数学はできないと厳しいぞ ツール使うだけにしても自分が何をやってるのか背景にある技術や理論が理解できないと、どのツールを選ぶのか判断できないし、問題があった時にも対処できない >>263 本当か?信じてええんやな? 独学で学部レベルの情報工学やるか、三浪で工学部入るか迷うけどとにかくどっちにしろ数学必要だろうから数学勉強し治すわ ありがと どのツールを使うのかの選定から入れるレベルって、 それなりに偉くなってからじゃないの? SEレベルなら自社で売ってるパッケージを勧めるだけだしw 高卒で働くか三浪しても大学行くかだったら、断然後者だが。 >>265 ツールってのはソフトウェアのパッケージのことじゃなくてアルゴリズムのことな 訓練データ食わせて抽出したパラメータが今ひとつだった時にどうすればいいの?もっと訓練データが必要?重みパラメータにペナルティ加えるだけでいい?モデルの見直しが必要?そもそもこの分析手法で合ってるの? みたいな 逆にそういうことは他の人が考えてくれて、自分は擬似コードをPythonで書き直すだけなら派遣会社へ電話すれば良い 自分が何をやってるのか背景にある技術や理論が理解できてない ↓ どのツールを選ぶのか判断できない ↓ 問題があった時にも対処できない このパターンはまってるひとたまに見かけるけど本人は気付いてないんだよな >>259 そうか? 車輪の再発明かな? 空中浮遊術の発明じゃないのか? でももの凄い監視社会がやってきそうだな。こんなもん開発していいんだかな。 数学とかどの分野でも必須だろ 線形代数すらまともにできないゴミプログラマーとかってこれから先マジでどこに需要あんの あと機械学習やりたいだけで学部まで変えるな 独学で十分と思う。なりより下火だし 人工知能もムーミンの舞台はムーミン谷と答えるだろうね 機械学習なんて古い技術的だろ、なんで今脚光を浴びてるのかわけわからんわ。 >>286 その通り、それ自体は以前からある技術。 ところが、扱い方に大きな変革が出てきたという話。 そこが理解できていないとちょいまずい。 詳しいことは分からんが、将棋ソフトが俺でも勝てるレベルからプロ以上になったんだからハードスペック以上の進化は間違いなくしてるな >>290 ほんとに簡単に説明すれば データから学習するというのは80年代から行われていて 90年あたりから実務で利用されている90年半ばからのデータマイニングに於いての 利用がまさにそれ。ところが自動化と言う面ではアルゴリズム的な問題から 自動的な学習はまだまだで人の介在が多かった。その部分独学できるような アルゴリズムが出てきた(その代表がディープラーニング)おかげで、それが 現実のものになってきたという流れ。 要はソフトが独学できるようになたったイメージでとらえるといいかも。 ディープラーニングをGPUにさせてるっていう書き込みを最近見るんだが 目的は何だろうか? 金が儲かるのか? >>293 速い、性能が高いだけだろ。 スパコンもおもにGPUを組合せて作る。 グーグルはGPUを超えるディープラーニング用のGPUみたいなやつ独自開発もした。 GPUは分岐処理は苦手だけど、並列計算はクソ速い ディープラーニングだとそれがめちゃくちゃ有用 >>296 だからディープラーニングして その先の目的は何? >>298 目的は人それぞれ 研究だったりビジネスだったり >>301 そういうことやってるやつそんなおらへんやろと思うんだよね その割にディープラーニングやってるやつ多すぎやろ 現段階では使えるか微妙だけど、なんかバズってるし将来必要かもわからんから くらいの感じじゃないかね。 本当に有効に使えてるところが多いとは思わん。 画像認識とかが一番多い セキュリティ、医療、農業、工業その他諸々応用性は高い 金はめっちゃ掛かる 話題性でかつ人が今のところ少ないから 金が高いそれだけだろね。 いつまで続くか、結構長く続くかもしれないし 短いかもしれない。 なにしろ、独自のアルゴリズムでなんてのを追い求めて 金になりなんて人は一握りのそのまた一握り。 あとは、パッケージ化された手法を使いまわす応用アプリケーションに なるので。そこまで金にならなくなるだろね。 でも今は金になってるのは事実でしょう。 人件費、計算資源、教師データの収集 この辺り 特に、普通の写真や動画に含まれる文字認識とかになると、 ・文字列の範囲の認識 ・文字の分割 ・文字の認識 と沢山の工程があって、実質的に複数の学習が必要になって非常にコストがかかる 人工知能って結局バブルなん? なんか医療用の画像診断と翻訳以外だといまいち結果残せてない気がする EVはともかく、たぶん自動運転はぽしゃるかんじがするし 誰もわからんってのが答えだろ。 とりあえず言えることは人工知能は20~30年周期で盛り上がったり盛り下がったりはしてる。 300年後とか逆に遠い未来ならともかく、10年、20年くらいじゃどうなるなんて正確には誰もわからんよ。 自動運転は要求される精度が厳しいからまだ難しそうだな LIDARとかハードウェア的なコストの問題もあるし 後から人間の目でチェックできる用途だとアプリケーションに合わせてprecisionかrecallのどちらかが高いのを選択すればいいけど、 自動運転は両方が高くないと危険だからな 自動運転で動きが無いものの判別が難しいらしいね 米国で駐車していた消防車に激突 岡谷貴之著『深層学習』のpp.17-18に 「事後確率 p(d=1 | x) は、条件付き確率の定義から p(d=1 | x) = p(x, d=1) / (p(x, d=0) + p(x, d=1)) と書けます。」 と書いてあります。 例えば、 p(x, d=0) は 入力が x で正解が d=0 である確率のことでしょうか? >>316 ありがとうございます。 ということは、 >>313 の 「例えば、 p(x, d=0) は 入力が x で正解が d=0 である確率のことでしょうか?」 は間違っていないということですか? >>313 p(d=1 | x) = p(x, d=1) / (p(x, d=0) + p(x, d=1)) これは、 p(d=1 | x) = p(x, d=1) / (p(x) とも書けますか? >>319 その本持ってないけどdは1か0しか取れないんでしょ? であれば、そう書ける つーかそれが条件付確率の式で (p(x, d=0) + p(x, d=1))の形式はベイズでよくやる表記 >>320 ありがとうございます。 はい、 d = 0 か d = 1 です。 x は、人物の画像で、その人物が男性の場合 d = 1、 女性の場合 d = 0 という例が書いてあります。 p(x) というのが分かりません。入力となる人物の画像の集合 X の要素 x に対して p(x) を計算するということですが、 X を定義することなどできるのでしょうか? あるフォーマットのすべての画像の集合 = X ということですか? 岡谷貴之著『深層学習』のpp.17-18の辺りが何を言いたいのか分かりません。 この本を持っている方に解説をお願いしたいです。 ロジスティック関数 y = 1 / (1 + exp(-u)) の y は確率と解釈した。 では、 u は何であるか? それは、 log(p(x, d = 1) / p(x, d = 0)) と解釈できるということが言いたいのでしょうか? 多分、「xという観測結果から、dが0なのか1なのかを判断しようとしている」 ことを理解できていないね >>328 p(d=1 | x) は入力が x であるときに、 d=1 である確率だと思います。 人物の画像ではなくランダムな画素値をもつノイズのような画像を与えても、 それが男性(d=1)である確率はいくらだとか女性(d=0)である確率がいくらであるとか ナンセンスではないんですか? というかそもそも出力をなぜ確率だと解釈するんですか? で、ロジスティック関数 は1か0かの判別に有効な関数ね これで大体わかると思うけどどうかな 活性化関数についても疑問があります。 始めは生物をモデルとしてシグモイド関数を使っていたそうですが、 正規化線形関数のほうが性能がいいとか、間抜けすぎませんか? なぜ生物を真似るというような馬鹿なことをするのですか? それとある手法がなぜうまくいくのかの説明が本に書いてないです。 「この手法ではこうする。そうするとうまくいくことが論文で報告されている」 みたいなパターンばかりです。 この分野の特徴を一言で言うと「考えない」。 起源は生物の真似(真似できているかどうかも疑問)。 その後はそれを単純化してみたらもっとうまくいった。 色々試してみてうまくいく手法がみつかる。 でも理由については一切説明しない。 やっていることは関数のパラメータ W と b の最適値を見つけるという単純は話。 ただ、規模が大きいから難しいというだけの話。 別に夢のある分野でもなんでもない。 神経細胞もなにも関係のない話なのに、なぜかニューラルネットワークとか 言い出していかにも人工知能を研究しているんだという雰囲気を醸し出す。 courseraのmachine learningのコースでもやると良いよ 無料だし多分君でも分かる >>341 ものすごく考えているんだけど、頭が悪いと実質考えていないになる で、掲示板で教えてクレクレ >>340 嘘じゃない情報を与えて結果が受け入れられれば合意の成立 詐欺じゃない ディープランニングという言葉はもう陳腐化してます これからはディープスロートと表現するようにgoogleを説得してきます >>340 ブームってそういうもんだよ 技術の本質をわかってなかったり、意図的に隠してたりする大衆向けに捻じ曲げられた広告が出され、 勘違いした一般人が増加していく 機械学習は成果物があるしやれることやれるからまだまだ全然マシなほう ブロックチェーンなんか…おっと誰か来たようだ ブロックチェーンに比べると「アカデミックで価値ある」とかそういう誤魔化し方をする輩が多い印象 逆ですよね、特に日本では、学会論文として認められづらい。 だから研究者(特に大学関係)も力がないらなかったというか やらなかったといった方が正しいですね。そんで遅れが出た。 深層学習を研究したいのか 人工知能を研究したいのか >>348 いやそういう被害者ぶった奴が多いってことだよ。 外国の学会でも提出すればいいだけの話では? 日本の大学関連で残りづらくなってるのは別にこの分野に限らんでしょ。 >>350 そうね、海外で発表は有だしそうすればいいと思うし 実際にそうやってきた人たちはいる。 実業界の人が多いけどね。そういう方はいまは大学に戻って 教えている方も多い。 >>348 研究してる先生がダニ次ブームが終わった後に減ったから専攻する学生も減っただけじゃね 優秀な論文ならIEEEとかに出せばいいだけ >優秀な論文なら 優秀ならそうするだろね その前にこの分野をやる人が減っちゃていたほうの問題 >>352 世界的に減ったわけでなく 日本が特に減ってしまったというところがねー 物理や純粋数学に比べればまだいい方だろ。。 まあそういうの抜きに学術全般で日本が衰退してるってのはあるが。 >>301 投資関連はすごいよ、巨額マネーを投入 投資ファンド、ヘッドファンドは収益に直結、他のAIに負けると廃業 学生を大量採用、インドや中国からも 深層学習 Ian Goodfellow 固定リンク: http://amzn.asia/gIgFNu5 翻訳されるんですね。 >原山優子,井上智洋,久木田水生,古田貴之,山川宏,山田誠二 おいしいの? ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる