【統計分析】機械学習・データマイニング28
■ このスレッドは過去ログ倉庫に格納されています
!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです
■前スレ
【統計分析】機械学習・データマイニング27
https://mevius.5ch.net/test/read.cgi/tech/1578892284/
スレ立ての際は、一行目冒頭に
!extend:on:vvvvvv:1000:512
をお願いします。
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured >>779
lasso回帰はラプラス分布の事前分布だぞ
そういう意味ではDLなど正則化付きのあらゆる分析はベイズ的と言える
つまり正則化付きモデルの予測分布を解析的に知りたければベイズが必ず必要になると思う。違ったらスマン
他には経験ベイズでハイパーパラメーター無くしたいとかの動機もある
ノンパラベイズ使って辞書なしで単語分割してくれる技術がある。最近だとDLでも出来るみたいだがベイズで発明された上でDL化してるわけだからベイズの知識を持ってないとそのDLの発明は出来ないわな。全く同じものじゃないだろうし > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw ベイズベイズ別に要らんし。
カルマンフィルタとカーネル法理解していたら十分。 >>786
それはカルマンフィルタはベイズだろっていうツッコミ待ちかい? >>787
歴史的にはカルマンフィルタ=ベイズではない。 そもそもカルマンフィルタの3つある証明の簡単なやつにベイズの方法があるだけであってカルマンフィルタ=ベイズではない。 カルマンフィルタは最尤推定だよw
しかし確率モデルで正則化しようと思えばベイズを使うのが普通だから実質「ベイズ要らない」=「確率モデル要らない」になるんだか...
まず、ノンパラで因果推論はだめぽと思うからその分野で何のモデルが使えるか考える
条件付き混合モデルのような確率モデルで因果推論が出来るとしてそのモデルで正則化しようと思えばベイズ推定が必要になる
(セミパラで因果推論が正しく出来るか証明してないから検証は必要だが)
あと、「ベイズいらね」って言ってる香具師はDL含めて普通の回帰分析はめちゃくちゃ強い仮定に基づいて計算してるの知ってるのかな?
一つ例を挙げると
説明変数に誤差がある→それ用の確率モデルで尤度方程式を導出→いやいや、この場合最尤推定はあまり良くない→確率分布のリーマン空間を考えてベストな推定を獲得する
ベイズを否定する=確率モデルを否定する=この流れを否定する
ということになるが >>792
正則化する理由、目的はなに?
正則化しなくても良いんじゃないの? ベイズ的に解釈するかどうかでしょ
ベイズか否かなどという議論はナンセンス こんなスレでステマって…と思ったがこの手のスレとしてはにぎわってるほうか ニュートンのベイズ特集は表紙にベイズ統計と書いておきながらベイズ統計とは無関係なベイズの定理でひたすら計算しまくっていたり
未だに事前分布のことを主観分布と言っていたり色々と問題ありだわ ニュートンの記事読んでないが、別に誤ったこと言ってないように思うが ベイズの定理は条件付き確率の定義に従って導出される単なる事実でしかなくベイズ的な考え方をしようが頻度論だろうが常に成り立つ
別にベイズ統計の本質でもなければ根幹を成すものでもない
ベイズの定理で計算しまくる能力が必要とされる場面は確かにあるだろうがそれは「ベイズ統計入門」ではない ベイズつってもどうせMAP推定するならメタパラありの最尤推定といっしょだろ。 流れと関係なくて申し訳ないんだけど
学習済みの重みを利用して、出力側から入力側に逆方向に演算して入力データを復元するって原理的可能?
MNISTだったら10個の確率値から手書き数字の画像を復元する、みたいな ベイズ統計の根幹としてレンニの公理や交換可能性をあげる人もいるが、
別にベイズの定理をベイズ統計の基礎という主張もなんの間違いもないぞ >>792
確率微分方程式からの視点を知らないね。 あとは射影によるリースの表現定理からの議論が全くない。
知ったかもいいとこ。 >>805
面白いね
原理的には情報量的に不可能だが、近似的には確率値から復元するデコーダーを、学習出来る可能性は有る >>806
それは「掛け算はベイズ統計の基礎」、「積分はベイズ統計の基礎」とか言うようなレベルかと
ベイズの定理は単に式変形でよく使う計算ツールでしかない >>809
>>810
君、なんの話をしているか分かってないね?
知ってる一番難しい言葉を並べてるだけだと思う
知ったかもいいとこ。
もしそうじゃないと言うなら"測定誤差問題"がリースの表現定理とどう結びつくのか説明してくれるか?
念のため言っておくが、今「カーネル法」の話も「確率微分方程式」の話も"全く"してないぞ
99.99%このレスはスルーされると思ってる >>805>>807
Google の猫みたいなことならできるでしょ
データの復元とはちょっと違うけど、その出力を得る理想的な入力の逆算はできる・・・場合もある
ネットワークが複雑になっちゃうと無理だろうけどね
たとえば Attention なんかがはさまるとできそうな気がしない >>805です。皆さんありがとうございます。
完全な復元は難しいですが、学習を通じた近似的手法、あるいは理想解に近づけるための模索といった方法なら可能なのですね。
情報理論などについてもう少し勉強してみようと思います。 いい加減な知識しかないので
ちゃんとしたいとは思ってるけど。。。 >>813
カルマンフィルタ=ベイズという意見があり、ベイズが必須というわかった口した発言(>>ID:lImhU2CT0)があったので反論したまで。 ところでカルマンフィルタ=ベイズとは何が背景でのべているかな? >>813
あと…、まさかカーネル法ごときも理解せず反論してるわけじゃないですよね? >>820
ではカルマンフィルタ=ベイズではない話と確率微分方程式とリースの表現定理がどう関わってくるのか聞こうか
そして、>>792でカルマンフィルタは最尤推定だと言ってるんだが、何の話をしてるんだ?
>>791がこっちの意図まで分かるように詳しく説明してくれていてそれを認めているのは明らかだが >>824
まずカルマンフィルタは最尤推定ではない。
いったいどの定義からその話になるんだ? >>826
MAP推定が最尤推定+ノルム正則化と見做せるのは有名な話だが >>827
それが真だとしても
同じ対象の見方を変える事ができるだけのような気がする
等しいというのは何?
どんな問題にも全く同じ結果を得ることができて計算量も同じとか? PRML13章
状態空間モデルのうち、
・潜在変数(カルマンフィルタ):最小平均二乗誤差推定
・モデルパラメーター(EMアルゴリズム等):最尤推定
モデルパラメーターは変分ベイズでも推定可能 > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw >>824
まあ、ついででいうとまるで人(俺)が理解してないことを前提にしてる点でお話にならないと思う。
ただただ難しい話をしてるわけじゃなく、ベイズベイズ拘るのは世界を知らないと同じ。 あと
ID:F4yFaW3g0=ID:F4yFaW3g0=ID:CwJFfZdJHな カルマンフィルタて大学で習ったかなあ
記憶にない(笑) >>831
全然議論になってなくて草
アンチベイズならその理由を言えばいいのに
唐突に確率微分方程式やリースの表現定理を出して支離滅裂な発言を繰り返すのは理解していない証拠
カルマンフィルタなんか数時間で勉強出来るからそれを知ってるぐらいで天狗にならずに情報幾何学ぐらいは勉強するべき
ただわめき散らすだけじゃなく論理で反論しないとな
「なぜベイズは要らないのか」今その話をしているのだから余計な話はしなくて結構 PRMLは避けて通れないのかに
難しいっちゅうんで後回しにしてる >>835
英語が得意だったらPRMLの英語版のPDFが無料で公開してくれてるよ
PRMLを読みやすくしてくれる同人誌も無料で公開してくれてるよ PRML読みやすいわけでもないけど、ある程度まとまったものってなるとどうしてもあれすすめることになるわな。 >>834
勝手に断言すなばーか。
情報幾何も習得済みだよ。 ところで…
カルマンフィルタを最適推定と勘違いしていた>>ID:pFzGbS6W0さんはなぜベイズだけが問題解決に必須だと断言するの? んな議論に終止符を打ちたいAutoML-Zero君 > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw >>842
わらわら。
まあ、本人も言ってる通り客観的な定義かあやしそうだから数式で示してよ。 LiNGAMの説明で軸を入れ換えただけで非対称性があるから因果推論可能という説明を見ますが
具体的にどうやってそれをモデルに組み込んでるんですか?
論文は読んでません 図解・ベイズ統計「超」入門 (サイエンス・アイ新書) 、という本で
学習しようと思うのだけれどこれは絵本 かな? 【マインド・エンジン】絶対不可能といわれていたコンピュータによる言葉の意味理解。ついに成功したので公開します。
https://youtu.be/bNXX9Iq9ad8
このマインドエンジンに対する皆さんの見解を教えて下さい。 今までになかった画期的な自然言語処理だね。
人間と同じだ。 人間と同じ能力があるなら、善悪や美醜のような判断もできるかも。 本当に発見したなら論文あげるなり実装あげるなりすればええやん > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw 基本的な質問で申し訳ないんですけど、そもそも分類器(で良いんですかね)って何なんでしょう
例えばタイタニックのデータを使って学習するとか、顔写真いっぱい読ませて顔検出させるとか、学習の結果何らかの「判断基準」が生成されるという認識なんですけど
この基準の実体って一体どういうものなんでしょうか。いや中に小人さんがいるわけでもないわけですし
何かしらの新規データが投入されて、その基準と「照らし合わせて」、「判定する」っていうのが色々説明読んでも概念的というか実際どういうことしてるのかと
opencvの顔認識見てるんですけど分類器のコンストラクタでなんかぐちゃぐちゃ数値書いてるxmlを読み込んでてこれどういうこと?ってなって不思議に思ったんです >>873
ある空間を〇と×に分ける境界線や境界面 >>875
正確には超平面
座標変換した超空間でもっともうまく分類する
超平面を決定する問題 超平面ググッてみましたけど、つまり二次元のグラフで最小二乗法で近似直線の方程式出すみたいに、入力データに上手く合致する方程式が生成されるってことでいいんですかね。平面って方程式の形で扱うことになりますよね
方程式を保存というのもあれですから、a1x1+a2x2+......+anxn=0 としたらa1〜axのリストが分類器として外部ファイルに保存されるとかそんな感じでしょうか
判定する新規入力データに関しては各特徴量と係数をそれぞれ掛け合わせて総和を取ってみたいな >>877
2次元平面でならExcelの散布図に散らばった
データ点同士が似ているなら近傍に偏りがあるはず
と言うことにして境界線を求める
その境界線が求まればそれ以上以下、内部外部などで判定出来るようになるということ
その軸(パラメーター)がxyの2つではなく
gpt-3 だと1750億パラメーターつまり1750億次元の散布図の境界を超平面で分割する事 ありがとうございます。
ただ知りたいのはそういう概念的なところでなくて、プログラムの中でそれがどういう数値データになっているのか
判定ってどういうアルゴリズムでされているのか、そういう次元のことでして >>879
>>877の通り
数式の係数を保存している >>879
アルゴリズムはいろいろSVMとかDTとかKmeansとか ■ このスレッドは過去ログ倉庫に格納されています