【統計分析】機械学習・データマイニング29
レス数が950を超えています。1000を超えると書き込みができなくなります。
!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
↑すれたてる毎に1行ずつ減るので、減ってたら3回に増やしてたてること。
機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです。
■前スレ
【統計分析】機械学習・データマイニング28
https://mevius.5ch.net/test/read.cgi/tech/1588293154/
-EOF-
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な ことはよーくわかったよ。 ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw 850, 851のpdfを読むと
層の横幅Mが広い(素子数が多い)と大域的最適解を得られるっぽいけど
どのくらいの素子数なのか実現可能な数なのかはよくわからなかったな
その素子数を計算で求めることができるのかも
P20に初期化は1/Mって書いてあるけど、横幅Mを計算するλminが何か書いてないような
wの初期化するN(0,I)のIも何か判らない
NTKで調べたら出てくるのか?
逆温度βもどんな値になるのか、変化するのかも判らないな
非凸性→深層学習
その他→他の機械学習(ランダムフォレストとか)
が適しているって感じ? 勾配降下法の意味は理解できましたが、使う意味がよく分からないです。
初めから勾配ベクトルが零ベクトルになるように偏微分の連立方程式解いて
その解を損失関数に代入したものの中から最小のものを選べば済むんじゃないですか?
そうすれば局所最適解に陥ることも避けられますし >>856
数千万次元の非線形連立方程式が解けるのならね 損失関数の導関数が4次方程式までなら頑張れば解析的に解ける希ガスとか言ってるテスト 次元(変数の数?)が膨大な上に、偏微分で得られた導関数が5次以上になると
代数的に解くことができなくなるからってことなんですね
勉強になりました、ありがとうございます >>861
計算量の問題もあるが、それだけじゃないんだぜ
学習データだけで最適解を求めてしまうと過学習に陥りやすくなる
いろいろ制約つけて、学習を途中で止めた方が汎化性能が高くなる
アーリーストップとかで調べてみるといいよ 解析的に求められないってことを知った上での発言かと思ってた 極端な話n次元ならn次方程式を用意すれば
サンプルを完全にトレースできる
でもそれだと過学習
一つ別のデータに出会ったとたん破綻する 非線形だから簡単じゃないんだろう
わざわざより高次元空間に写して線形判別しないと上手くいかない >>865
それは違う気がするな
重みやパラメータをデータから決めただけで
モデルの出力が学習に使用したデータから少しずれたら判別でしなくなるのとは違う
例えば2値判別する時に2点のデータからその中間で判別する境界線を学習したら
データの2点から少しズレても正しく判別できる >>864
多分「解析的に求められない」の意味もわかってないと思われる。 >>867
同じグループに判別されるデータが飛び飛びではなくて連続しているという前提が成り立つ空間ではそうなるけど
少しズレたら別のグループに判別される様な空間では複雑な境界線になるだろうな >>869
それを解消するために座標変換するんじゃないのか? その通り
飛び飛びかどうかなど自分で勝手に決めた空間での話に過ぎない >>870
それは判っているけど
具体的にどんな変換をしたら良いかはどうやって見つける? 試したものより良いものがあるかもしれない
試したものが良くないものばかりの場合は幾ら試しても大して改善しない >>874
そもそも真の分布などが分からないものを扱うために分析者の判断で何らかの近似をするのが機械学習を含む統計的分析なので「その方法よりいい方法があるかもしれない」は常に発生する問題 >>876
必要な次元とか空間の特徴とか計算料を少なくする条件とか
判る事がゼロなのかどうかで違ってくるだろう アルゴリズムにも人権を与えて
自動運転でミスったりしたら
減点すればいい
運転免許もアルゴリズムに与えて
失敗したアルゴリズムには免許与えない
アルゴリズムが得た給料を
損害時の補償に使う
人を殺したらそのアルゴリズムを死刑つまり廃止する そして機械学習は禁止され、技術の発展は止まりましたとさ 問題が発生したとき思考停止で禁止にして表面的に解決した事にするのはよくないよ タチコマみたいにクローン沢山作って同期させて、問題が起きたらその手前まで巻き戻せばいいんじゃね。知らんけど 富士通が次元の呪いを解決していたとは知らなかった(笑) >>878
人と違ってアルゴリズムが厳密に同じか違うかは判定できなないだろ 会社がそのアルゴリズムを採用する
会社は損失を負うリスクを回避するようになる
つまり良くないアルゴリズムは淘汰されていく 最近解雇されたGoogle の AI 研究者はヒドイjsw
黒人で女だから差別されたって言えば最強、誰も何も言えなくなるのを利用した卑怯者
正義面して、ポリコレがいきすぎてる 仲間内の揉め事って感じだよね。他の失業者も沢山いるんやが >>891
ハイハイ、逆張り俺すげー言いたいのはよくわかったよ。
こういう馬鹿がトランプ支持してんだろうね。 敵対的生成ネットワークを実世界で
展開する俺すげー
かな? いや普通に差別されて訴えてるだけだろ。それを裏がある(ドヤ)とかやってるから馬鹿だと言ってる。 ttps://ic4-a.wowma.net/mis/gr/114/image.wowma.jp/43123942/others/strapless-panty.jpg ネットで話題になるっていうことは
そういうことだろう
糞みたいな動画をいろんなSNSに貼りつけ
煽ったり叩いたり擁護する奴が現れ書き込みが増えて行き
同時期にスタートした同じテーマの質の良い動画をうpしている
youtuberより3桁、4桁上の視聴数を稼ぐことになっていた
人気の動画っていうのも
そういうことだろう
炎上してネットで話題になった案件でも
そこで何回も投稿している奴は数人しかいない 画像認識でロス0まで学習を行っても教師画像を数枚誤認識するんですけどなんでですか? Appleも自分の所で車作ってるんだな
ウォルマートが2021年から完全無人の自動運転トラック配送をスタートするし
日本の自動車業界と配送業者の終焉も近そうだけど 全ての国道を自動運転対応にする公共事業をやればいい 2021年9月にApple Carを発売する見込み、、、らしい
倒産寸前から時価総額1兆ドルになったアップルがここまで成長した理由に
ジョブズの改革を上げてたけど
損益計算書を持つ独立した事業単位を持つことを廃止したとか
マネジメントしかできない管理職を解雇し、企業が作る製品の「専門家」が管理職に投入されることになったとか
日本の技術系企業の創業者とか発明、開発した人が社長になる時代の方式に近そうだけど
組織がある程度の規模になった時にやってくる
「僕ちゃんが数値を良くしてあげますよ」的な怪しい奴等は
その場凌ぎの増強剤で逃げ切るばかりで
糞の役にも立たないってことをジョブズは見抜いていたな
上も下も中間も片っ端から首をはねたらしいからな
時計もパソコンもスマホも車もAppleの時代になるんだな Windowsパソコンのほうがシェアは高いのに,コンピュータサイエンティストとかが講義で使っているパソコンがほぼ必ずと言っていいほど,Appleのパソコンなのはなぜでしょうか? >>910
画面が綺麗なのと、ターミナルでシェルが使えるからじゃね。知らんけど Mac を使っている香具師は、情弱w
Linux を知らないから、BSD のMacを使う
プロは、Windows 10 Home 版でさえ、WSL2 で、Ubuntu 18.04 などの、Linuxを使う。
Windows10 Home用のDocker も入れる。
それには、Kubernetes も入っている
Linux, Docker, AWS が基幹技術。
それと、シェルスクリプト・Ruby が出来れば、環境構築できる
Docker Compose ? はあ?
もう、Kubernetesが入っているけどw
こういう話についていけない香具師が、Macを買うw
結局、いつまで経っても、Linux API を学ばないから、単なるプログラマーにしかならない CUDAを使えるGPUが入っているPCはWindowsかLinuxだよなあ
MacだとAMDだけだから深層学習に限ればやりにくい Macの新しいM1チップは2.6 TFLOPSでTensorFlowも使えるらしい。趣味程度なら使えるかな?
長時間学習するなら専用サーバーかクラウドだろうね。 たかがプラットフォームにどうして勝ち負けを挑む人が居るのか... データセットに黒人が少ないから認識率が悪かった、という当たり前の事実を報告しただけでなんでai倫理の権威になれたのか、というと
報告者が黒人だったからなんだよな 仮想化したらwindowsでもlinuxとか使える >>919
当たり前である事と明白であることは違う
考えてみりゃ当たり前のことでも今まで注目されていなかった部分に光を当てるのは普通に価値があると思うが… 黒人がゴリラに誤認識されたからって
アルゴリズムが差別を助長してるわけでもない
ただデータセットが偏っていただけ
なのに差別だと騒ぐ
差別を探して差別を作り出してる 360度カメラで囲んで顔写真撮って、データセット作ってるらしいからそのうち直るんかね >>891
Googleはまだましだけど、ビックテックはポリコレの巣窟
それがイヤで転職してくるエンジニアも居るから、人材独占にならずに良いんだろうけど EM法とGPとMCMCとALSの違い教えてください ヒントンさんが成果出して当時の日本人研究者の人が全く成果出してないのはなぜなんだろう 日本の頭いい研究者って数式の展開は得意だけど独創性がないよね 当時ニューラルネットの研究者は
ローカルミニマムに陥る現象を論理的に解決できないって言って逃げたらしいけど
活性化関数やミニバッチやドロップアウトみたいな工夫だけで攻略できたのにな
まあそれでも十数年かかった訳だけど >>937
答えを知ってから色々言ってもなぁ
他の分野でも同じ
GAFAみたいにならなかったとか
まだ未解決の問題はあるからそれを解いたら良い ノードの 性質を理解したらああいう工夫はできたよね
上っ面でしか理解してないのかも
ヒントンはホント優れた研究者
ニューラルネットワークはブラックボックスだって言って説明責任を逃げてるけど本当は説明できるのかもね 実際の性能出すまでの準備は相当なもんだろ。
image net 作るだけでも大作業だっての。
SGDが奇跡的に汎化性能向上に寄与したのもやってみてなんぼの感覚があったからで理論的裏付けが何かあったわけでもない。
てか今もその研究は終わってない。 >>937
僕らがローカルミニマムに陥ってないと思えるのは
究極的には量子力学的な背景があるからなのかな
>>939
今は機能として自分たちの外に
見てるから説明が欲しいけど
人間と同じレベルのロボットが作れて
人間と見分けがつかなくなった時に、
それでもできる事に説明を求めるようになるのかな。
できない事に説明を求めるのは
なんとなく理解するけど。 アノテーションアプリのVottだが
半年前までは「10日くらいアセットにアクセスしないでいると読み込めなくなる」
って状態だったので
少なくとも近日中に再編集する必要のあるものは毎日開いて見るようにしていた
原因をWebで検索しても分からなかった
ところで今になって、最近開いてなかったものを読み込んでみたらちゃんと読み込めた
何か改善されたのかなあ
自分もNode.jsとelectronを勉強してVottのオレオレ版でも
作ろうと思ってたのだがw
bounding boxじゃなくて完全輪郭検出があるものも出てきたが
データセットのありかが全部中国だな コンピュターの処理能力があがったため、これは前回のNNブームでも同じ 普段から、強力な計算機に触ってないと思いつかない。なんてありそう なぜ伸びないのか、なぜ成長しないのか
それは金を掛けないからに決まっている
問題というか失敗というか
これからドンドン落ちてく要因となったのは
経営者とか政治家とか文系分野でTOPに居た
おっさん爺さん勢のせいだと言い切って間違いないだろう >>942
説明してほしくなるのは
人間のレベルがaiより低いからだと思う
将棋でも人間には意味不明でもよくよく調べたらその手に意味があったということがあるし 政治家のせい経営者のせいとか文句言うだけ言って自身はそいつらより効果的な施策を実行するのかと思いきや何もしないのが一番無能 >>942
>>850, 851
のpdfにある方法で初期化するとその近くに大局的最小値があるとか書いてあったと思う
凸関数とかノード数無限大とか何かしら条件があったかもしれないけど 人間に任せるのだって人間の脳の処理は完全に解明されていないけど人間だからって理由で任せているけどね レス数が950を超えています。1000を超えると書き込みができなくなります。