X



【統計分析】機械学習・データマイニング33
0001デフォルトの名無しさん (ワッチョイ 5b10-ysRc [114.163.141.1])
垢版 |
2023/03/17(金) 01:30:49.78ID:RQNAfc890
!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
↑すれたてる毎に1つずつ減るので、減ってたら3回に増やしてたてること。

機械学習とデータマイニングについて語れ若人

*機械学習に意識・知能は存在しません。
 人の意識に触れたい方はスレ違いです。

■前スレ
【統計分析】機械学習・データマイニング29
https://mevius.5ch.net/test/read.cgi/tech/1597882603/
-EOF-
【統計分析】機械学習・データマイニング30
https://mevius.5ch.net/test/read.cgi/tech/1609459855/
【統計分析】機械学習・データマイニング31
https://mevius.5ch.net/test/read.cgi/tech/1632587566/
【統計分析】機械学習・データマイニング32
https://mevius.5ch.net/test/read.cgi/tech/1659286605/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured
0383デフォルトの名無しさん (ワッチョイ cf6c-edRi [254.206.42.254])
垢版 |
2023/10/16(月) 18:31:59.96ID:wRuHThXc0
ニューラルネットは巨大すぎて、深く勉強しても使うことがない気がするので、
教養くらいにとどめてる。学習済みモデルを使うこと以外はほぼあり得んじゃろう。
0386デフォルトの名無しさん (ワッチョイ 1b13-dQtH [250.93.230.9])
垢版 |
2023/11/03(金) 18:52:54.40ID:cbgvGuNU0
岡谷貴之著『深層学習第1版』

ソフトマックス関数は冗長だが、ユニットの一つを選びその入力を0にしてしまえば冗長性を回避できる。
選んだユニットに入る結合重みもきちんと出力に反映される。

というようなことが書かれているのですが、本当に、選んだユニットに入る結合重みもきちんと出力に反映されますか?
0389デフォルトの名無しさん (ワッチョイ 3b56-/9BA [250.93.230.9])
垢版 |
2023/11/05(日) 10:24:18.73ID:iAGuwN4n0
確率的勾配降下法について質問です。

E(W) = E_1(W) + … + E_N(W)

の値をできるだけ小さくするような W を求めたい。

E_i(W) は i 番目のデータに対するニューラルネットワークの出力と i 番目の正解データとの誤差です。

確率的勾配降下法では、 (grad D)(W) を計算するのではなく、ランダムに i ∈ {1, …, N} を選んで、 (grad D_i)(W) を計算して
重み W を更新します。

こうすると、 W を更新する際に、 i 番目のデータに対する E_i(W) の値は小さくなると思いますが、全体として E(W) の値が小さくなることはどうやって分かるのでしょうか?

例えば、

(grad E_1)(W) を計算して、 W を更新する。 → E_1(W) の値が小さくなる。
(grad E_2)(W) を計算して、 W を更新する。 → E_2(W) の値は小さくなるが、直前にせっかく小さくした E_1(W) や他の E_i(W) の値は大きくなってしまう。

というようなことが起こらないのでしょうか?
0390デフォルトの名無しさん (ワッチョイ 3bb9-/9BA [250.93.230.9])
垢版 |
2023/11/05(日) 13:39:34.14ID:iAGuwN4n0
結局、もぐらたたきのように、いくら局所的な改善をしても全体としては一向に改善されないというような事態にはならないのでしょうか?
0394デフォルトの名無しさん (ワッチョイ 3bb9-/9BA [250.93.230.9])
垢版 |
2023/11/05(日) 17:18:34.99ID:iAGuwN4n0
>>391
>>392-393

ありがとうございました。
岡谷さんの本には、確率的勾配降下法により E(W) がどんどん小さくなっていくのは当たり前のことであるかのように何の説明もありませんでした。
0400デフォルトの名無しさん (ワッチョイ abca-pScM [254.206.42.254])
垢版 |
2023/11/06(月) 18:13:52.90ID:jt8VLAcA0
確率勾配法も、transfomerやCNNもあんまり数理的に詳しくない人が思いついた気がするけど、数理的に深い方の統計機械学習はどのくらい価値があるのかイマイチわからない
0402デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.146.125.80])
垢版 |
2023/11/07(火) 00:34:05.64ID:68QHudqSa
>>400
バックプロゲーションやNNの最適化を60年代にすでに完成させてた甘利先生が
ローカルミニマムに陥るのを防ぐことはできないと言って諦めた分野だからな

少なくとも数学的な理論では無理だと判断した
ローカルミニマムに陥らないようにする各種手法を小手先のテクニックと言って切り捨ててたし

確かにミニバッチ勾配降下法とかドロップアウトとかレイヤー正規化だとかの理論は
あくまでやってみたら有効だったというだけで証明は一切ない
0423デフォルトの名無しさん (ワッチョイ 3be6-/9BA [250.93.230.9])
垢版 |
2023/11/10(金) 17:43:39.65ID:WbKAk9iL0
YouTubeの3Blue1BrownJapanのニューラルネットワークの動画を見ました。

「第2層が短い線を検出し、第3層がパターンを検出し、」という説明がありました。
ニューラルネットワークの重みやバイアスが何なのかはブラックボックスとして考えないのかと思っていましたがそうではないんですね。

ニューラルネットワークを学習させ、満足のいくものを完成させたとします。
このとき、例えば、第1層がどんな処理をしているのか人間が分かるような説明はどうやって見出すのでしょうか?
0425デフォルトの名無しさん (ワッチョイ 3be6-/9BA [250.93.230.9])
垢版 |
2023/11/10(金) 18:31:10.70ID:WbKAk9iL0
>>424

ありがとうございました。

そういうことが分かると非常に満足度は高いと思いますが、よりよいニューラルネットワークを作るのに役立ちますか?
0427デフォルトの名無しさん (ワッチョイ aba6-OkTm [254.206.42.254])
垢版 |
2023/11/10(金) 20:50:38.03ID:8Gy2rkAk0
そもそも機械学習の手法の目的は予測する事で、介入効果については例えばRFでimportanceが高かろうが何も言えなく、実はテーブルデータに関しては役に立つ局面のは限定的だとおもう
0448デフォルトの名無しさん (ワッチョイ 2dc6-nXTY [240d:1a:632:db00:*])
垢版 |
2023/11/19(日) 14:37:40.63ID:6yX2EY8S0
資本主義とはそういうものやで。日本のIT企業も経営陣は何もしてないし、コードもかけない。
0450デフォルトの名無しさん (アウアウウー Saa1-UHOz [106.180.4.112])
垢版 |
2023/11/19(日) 14:52:27.66ID:/G2k3fWta
儲かると観ると役員入れ替えと買収乗っ取りが進む
そして糞企業に成り下がる
sunもoracleもgifもgoogleもyoutubeも歩んだ道
0465デフォルトの名無しさん (ワッチョイ 2ddf-nXTY [240d:1a:632:db00:*])
垢版 |
2023/11/23(木) 19:26:22.56ID:/IrV1b/40
なんと、ViT言葉からキーバリューで畳み込みと似たことをやってるのかと思ったら、畳み込みしないモデルなのか
0471デフォルトの名無しさん (アウアウウー Sa9d-qUbB [106.146.28.70])
垢版 |
2023/12/03(日) 16:40:58.19ID:yd0YzEc7a
GPT-nとBERTの違いがイマイチあやふやなんだけど
TransformerのEncoderを使って事前学習して特徴量を生成するのがBERT
TransformerのDecoderを使ってBERTが生成した特徴量をもとに自然言語を生成するのがGPT-nって理解であってるのかな?

GPT-4も学習時はBERT使って学習してるのよね?
0473デフォルトの名無しさん (ワッチョイ 8917-vBln [240d:1a:632:db00:*])
垢版 |
2023/12/03(日) 17:01:30.18ID:KjJi6E/00
多分99%以上の人は自力で学習する事はないだろうから、その辺全部まとめてtransfomerでいい気がするww
0475デフォルトの名無しさん (アウアウウー Sa9d-qUbB [106.146.30.14])
垢版 |
2023/12/03(日) 17:18:35.64ID:tIQpSdkpa
>>472
GPTとBERTの立ち位置が良く分からなくて混乱してくる…
単方向か双方向かの違いなのかな?
それだと双方向に学習するBERTの方が精度高そうなのになんでGPTの方が流行ってるんだろう

論文とかコードは数式が難しくて読める気がしない…
0480デフォルトの名無しさん (アウアウウー Sa9d-/D3x [106.146.125.1])
垢版 |
2023/12/03(日) 20:47:26.62ID:PuZI2f4Xa
あとBERTは最後に線形層などを追加して分類問題として使えたり
様々なタスクに使えるようにできてる

GPTはそうではないが結局プロンプトを分類問題として指定することで同じことができることが判明した
つまりGPTこそあらゆる機能に応用可能な存在だった訳だ
レスを投稿する


ニューススポーツなんでも実況