【統計分析】機械学習・データマイニング18
レス数が950を超えています。1000を超えると書き込みができなくなります。
1デフォルトの名無しさん (スッップ Sd3f-sT+G)
2017/10/12(木) 20:21:31.89ID:dbH/cWyid機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ
※ワッチョイ
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング17
http://mevius.5ch.net/test/read.cgi/tech/1502032926/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured
882デフォルトの名無しさん (ワッチョイ 1731-1VRC)
2018/02/21(水) 17:51:52.84ID:GzA/Ajom0 >>879
> PL/MでなくPL/1を組み込みに使うなんてリッチな
MITのProject MACの内容、特にOSのMulticsについて調べてごらん
このOSは当時の最新最強の言語であったPL/Iで書かれたんだよ
そしてBell Labs.もこのプロジェクトに関わっていたが後に撤退し
その失敗の反省を踏まえてBell Labs.の連中が作ったOSがUNIX
つまり何でもできるようにしようとして規模がどんどん膨れ上がったMULTIcsに対するアンチテーゼとして
狙いを絞って軽量小型で反応も速いUNIxが生み出されたわけだ
ただしUNIXの記述言語のCについてはPL/Iから特に影響は受けた点はないと思う
C言語がどういった言語たちから影響を受けてどんな流れで誕生したのかも面白い話題だが
それはまたいつか気が向いたら書くかも知れない
> PL/MでなくPL/1を組み込みに使うなんてリッチな
MITのProject MACの内容、特にOSのMulticsについて調べてごらん
このOSは当時の最新最強の言語であったPL/Iで書かれたんだよ
そしてBell Labs.もこのプロジェクトに関わっていたが後に撤退し
その失敗の反省を踏まえてBell Labs.の連中が作ったOSがUNIX
つまり何でもできるようにしようとして規模がどんどん膨れ上がったMULTIcsに対するアンチテーゼとして
狙いを絞って軽量小型で反応も速いUNIxが生み出されたわけだ
ただしUNIXの記述言語のCについてはPL/Iから特に影響は受けた点はないと思う
C言語がどういった言語たちから影響を受けてどんな流れで誕生したのかも面白い話題だが
それはまたいつか気が向いたら書くかも知れない
883デフォルトの名無しさん (アウアウカー Sa6b-GHyv)
2018/02/21(水) 18:31:03.07ID:hOt5TJ76a 書くなら適切な場所でな
884デフォルトの名無しさん (ブーイモ MM1b-UGQj)
2018/02/21(水) 19:30:14.11ID:eeBSn4S2M885デフォルトの名無しさん (ワッチョイ 1731-1VRC)
2018/02/21(水) 20:15:47.77ID:GzA/Ajom0 >>884
> お客さん >>882 はどうも、Multicsを組み込みに使っている
882が>>879へのレスでその879が「組み込みに使うなんて」と書いてるからと言って延髄反射で上のように揶揄レスをするのは
君自身の頭の悪さ、読解力の欠如をわざわざ自分から曝け出しているだけの行為だよ
879がなぜ突然にPL/Iと言い出したかを考えれば、879が狂人でもない限り、その原因は>>874の
> 『PL/I』・『ケン・トンプソン』・『デニス・リッチー』
> と
> 『C言語、』『UNIX』
> の意外な関係。
>
> なんてのがあったね。
> PL/Iが無かったらUNIXは生まれなかったろうという。
以外には見当たらない。だから私の882は、その874で触れられていて879が反応したと推測されるPL/IとUNIXとの因縁を述べたのですよ。
879が「PL/Iを組み込みに使うなんて」と組み込みという言葉を急に持ち出したのは874で組み込みで広く使用されているC言語が出ているからだと推察できる。
なお、一言断っておくと、言語の名前として879のように“PL/1”と書く人も少なくないがこれは間違い、正しくは1のローマ数字を用いた“PL/I”だ。
884はもう少し議論の文脈をきちんと押さえてから反応することだね。でないと己の読解力の不足を示すだけのレスになってしまうよ。
> お客さん >>882 はどうも、Multicsを組み込みに使っている
882が>>879へのレスでその879が「組み込みに使うなんて」と書いてるからと言って延髄反射で上のように揶揄レスをするのは
君自身の頭の悪さ、読解力の欠如をわざわざ自分から曝け出しているだけの行為だよ
879がなぜ突然にPL/Iと言い出したかを考えれば、879が狂人でもない限り、その原因は>>874の
> 『PL/I』・『ケン・トンプソン』・『デニス・リッチー』
> と
> 『C言語、』『UNIX』
> の意外な関係。
>
> なんてのがあったね。
> PL/Iが無かったらUNIXは生まれなかったろうという。
以外には見当たらない。だから私の882は、その874で触れられていて879が反応したと推測されるPL/IとUNIXとの因縁を述べたのですよ。
879が「PL/Iを組み込みに使うなんて」と組み込みという言葉を急に持ち出したのは874で組み込みで広く使用されているC言語が出ているからだと推察できる。
なお、一言断っておくと、言語の名前として879のように“PL/1”と書く人も少なくないがこれは間違い、正しくは1のローマ数字を用いた“PL/I”だ。
884はもう少し議論の文脈をきちんと押さえてから反応することだね。でないと己の読解力の不足を示すだけのレスになってしまうよ。
886デフォルトの名無しさん (アウアウウー Sa30-MRHR)
2018/02/22(木) 07:59:06.82ID:9dW6Z+Rva >>882
MITは今Juliaだ。そのうちpythonにとって変わる。
MITは今Juliaだ。そのうちpythonにとって変わる。
887デフォルトの名無しさん (ワッチョイ 4d8a-uysM)
2018/02/23(金) 00:18:04.30ID:yfZI4cVy0 んなわけない
888デフォルトの名無しさん (アウアウイー Sa81-BFLd)
2018/02/23(金) 12:22:07.69ID:KI9HH4p8a Juliaはこの10年近くAV界を席巻したな
将来性と言っても・・・・
将来性と言っても・・・・
889デフォルトの名無しさん (アウウィフ FF3a-dAZW)
2018/02/23(金) 16:57:13.59ID:0tA6Y4q1F Iとか1とかlがごっちゃになってるのは
昔のタイプライター式キーボードの名残で云々
昔のタイプライター式キーボードの名残で云々
890デフォルトの名無しさん (アウアウイー Sa81-BFLd)
2018/02/23(金) 20:21:30.43ID:HXMF89cCa891デフォルトの名無しさん (ワッチョイ 969f-v/dL)
2018/02/23(金) 22:23:49.95ID:9i9I44Ng0 終わった
892デフォルトの名無しさん (オッペケ Sr5f-n3Mz)
2018/02/23(金) 22:39:43.05ID:ugutJ7Q0r >>888
どっちの用途でも、性能アップにはシリコンデバイスの増設が必要だねw
どっちの用途でも、性能アップにはシリコンデバイスの増設が必要だねw
893デフォルトの名無しさん (ワッチョイ 671e-POFq)
2018/02/24(土) 03:35:00.34ID:r5hKkD5Q0 qiitaは真面目な記事とゴミ記事の落差がありすぎる
894デフォルトの名無しさん (ワッチョイ aca9-x4Or)
2018/02/24(土) 21:22:56.45ID:WtwMSF2v0 pythonって欠点あるの?
895デフォルトの名無しさん (ワッチョイ 3087-uyN1)
2018/02/25(日) 00:08:37.26ID:+330q+5S0 変数が・・・・・まぁ気にしない人は気にならないのだろうけど。
896デフォルトの名無しさん (ワッチョイ ea60-MTlB)
2018/02/25(日) 00:13:50.17ID:9iGYkY9C0 変数宣言はほしい、typo は排除しきれない
897デフォルトの名無しさん (ワッチョイ fc81-YW4B)
2018/02/25(日) 00:42:33.02ID:MM9Gz6b60 >>894
スピード
スピード
898デフォルトの名無しさん (ワッチョイ 671e-POFq)
2018/02/25(日) 04:02:17.51ID:LDn2NfHg0 コードの隠蔽が難しい
899デフォルトの名無しさん (ワッチョイ b02d-Vd3i)
2018/02/25(日) 09:10:17.64ID:4BXDRGUM0 yjcaptionsを形態素解析でパースしたら語彙数が10000以上になってしまった
seq2seqするなら1hotと分散表現と1文字ごとと語彙減らすのどれがいいかな
seq2seqするなら1hotと分散表現と1文字ごとと語彙減らすのどれがいいかな
900デフォルトの名無しさん (スププ Sd70-oixV)
2018/02/25(日) 17:43:16.50ID:kWyi7dgzd 人工知能が全く未経験でも学べると謳うこれはどうなのよ?
https://tech-camp.in/article-lp02/index.html?gclid=EAIaIQobChMIrf_Ps9XA2QIVVXG8Ch2hrAbZEAEYASAAEgKFqPD_BwE
https://tech-camp.in/article-lp02/index.html?gclid=EAIaIQobChMIrf_Ps9XA2QIVVXG8Ch2hrAbZEAEYASAAEgKFqPD_BwE
901デフォルトの名無しさん (ワッチョイ 7623-q7wk)
2018/02/25(日) 18:22:37.79ID:251p5lsj0 >>900
ウイルス
ウイルス
902デフォルトの名無しさん (ワッチョイ 6f99-oixV)
2018/02/25(日) 21:21:17.07ID:mbPsjSRo0 >>901
まともに開けるサイトだよ。
まともに開けるサイトだよ。
903デフォルトの名無しさん (ワッチョイ 96e9-OThY)
2018/02/25(日) 21:38:23.20ID:SIGvHUUj0 パコソンが物故割れた
904デフォルトの名無しさん (ワッチョイ 3aaf-YHbr)
2018/02/25(日) 21:40:45.86ID:BojLQ7D20 アフォンが爆発した
905デフォルトの名無しさん (ワッチョイ 8b8a-MTlB)
2018/02/25(日) 21:41:28.00ID:vSl/PxfC0 御冥福をお祈りいたします
906デフォルトの名無しさん (ブーイモ MM98-hOYk)
2018/02/26(月) 04:30:36.40ID:/m1Ol5ZYM おまいら、学習ってどれくらい時間使ってる?
ワイ、遺伝的アルゴリズムで8時間くらいPCフルで動かしてる
ワイ、遺伝的アルゴリズムで8時間くらいPCフルで動かしてる
907デフォルトの名無しさん (スププ Sd70-oixV)
2018/02/26(月) 07:17:19.11ID:7WwEQGrrd >>906
何を学習させてるの?
何を学習させてるの?
908デフォルトの名無しさん (アウアウウー Sa30-MRHR)
2018/02/26(月) 07:32:54.83ID:IuGyHUGLa >>897
Juliaにしろ。
Juliaにしろ。
909デフォルトの名無しさん (アウアウウー Sa83-9jNp)
2018/02/26(月) 07:37:16.76ID:JhuUfOwya Juliaって使いにくいんだよな
matlabのコマンドウインドウをそのままpython対応にしてほしいわ
matlabのコマンドウインドウをそのままpython対応にしてほしいわ
910デフォルトの名無しさん (ワッチョイ 664b-Sj+I)
2018/02/26(月) 16:52:46.96ID:ZymD9F8g0 機械学習の基礎って1週間で学べる?
911デフォルトの名無しさん (ワッチョイ 8b8a-MTlB)
2018/02/26(月) 16:58:29.55ID:CzUNChgv0 楽勝
912デフォルトの名無しさん (ワッチョイ b02d-Vd3i)
2018/02/26(月) 20:08:09.42ID:JIAZZK400 tensorflowからkerasに移行したけどもっと早くに変えとくべきだったわ
kerasの楽さになれたら戻れんな
kerasの楽さになれたら戻れんな
913デフォルトの名無しさん (ワッチョイ 708a-MTlB)
2018/02/26(月) 20:44:10.33ID:JEWNCxz20 ケラケラ
914デフォルトの名無しさん (オッペケ Sr5f-n3Mz)
2018/02/27(火) 00:11:37.36ID:kDYG9eR3r chainerはtrainerに投げるまでのパッケージが何段階もあって面倒
kerasはモデル作ってコンパイルしてフィットするだけだから分かりやすい
kerasはモデル作ってコンパイルしてフィットするだけだから分かりやすい
915デフォルトの名無しさん (ワッチョイ 8aab-3q3m)
2018/02/27(火) 00:47:26.28ID:gWP86dQx0 pyTorch…
916デフォルトの名無しさん (スップ Sdc4-XKcb)
2018/02/27(火) 01:32:16.56ID:1tqcV5ifd >>915
TFは別格にしても、pytorchもかなり流行ってきてるな
TFは別格にしても、pytorchもかなり流行ってきてるな
917デフォルトの名無しさん (アウアウウー Sa30-CeOK)
2018/02/27(火) 01:46:37.32ID:swwSgSN2a918デフォルトの名無しさん (ワッチョイ 671e-POFq)
2018/02/27(火) 08:21:03.94ID:7rva7PWI0 kerasは抽象化進んでるからこまい部分いじろうとしたらtf
919デフォルトの名無しさん (ワッチョイ d023-MTlB)
2018/02/27(火) 15:55:02.38ID:8YslYmAQ0 モデルだけkerasで作って、訓練はtfに投げるっていう手もある
920デフォルトの名無しさん (スップ Sdc4-XKcb)
2018/02/28(水) 00:19:42.85ID:NQYS4Xxkd921デフォルトの名無しさん (ワッチョイ 679f-lEE9)
2018/03/01(木) 10:34:42.63ID:bWNt6Hcx0 あるモデルの予測性能に低下が見られた場合
トレーニングに使ったデータが既に手元にない時は
何をもとにチューニングをすれば良いのでしょうか
トレーニングに使ったデータが既に手元にない時は
何をもとにチューニングをすれば良いのでしょうか
922デフォルトの名無しさん (ワッチョイ bf8a-k3ZN)
2018/03/01(木) 10:44:25.07ID:5ubeXUHh0 想像力
923デフォルトの名無しさん (ワッチョイ e71e-wl/W)
2018/03/01(木) 10:47:59.02ID:Ak0T+lzF0 解決しました。ありがとうございます。
924デフォルトの名無しさん (アウアウイー Sadb-IhxS)
2018/03/01(木) 13:41:44.13ID:Bn8v5XdYa925デフォルトの名無しさん (JP 0Hbf-9qkV)
2018/03/01(木) 16:42:02.06ID:6SZxvIOKH 学習モデル無いのにどこをどうチューニングするんだろう
926デフォルトの名無しさん (ワッチョイ bf8a-k3ZN)
2018/03/01(木) 17:32:30.43ID:K8o4u3z20 エアー
927デフォルトの名無しさん (ワッチョイ dfb0-A4HH)
2018/03/01(木) 18:24:10.61ID:xzbWV/bR0 オンライン学習でいいんじゃないの
トレーニング用のデータはない、新しいデータもない場合は無理な話だけどバリデーション用のデータがあるから性能評価できてるんだろうし
トレーニング用のデータはない、新しいデータもない場合は無理な話だけどバリデーション用のデータがあるから性能評価できてるんだろうし
928デフォルトの名無しさん (ワッチョイ 67b3-5maD)
2018/03/01(木) 19:25:38.83ID:uaEM6B4d0 サポートベクター回帰について質問があるんだけど、
ここでいいの?
ここでいいの?
929デフォルトの名無しさん (アウアウイー Sadb-IhxS)
2018/03/01(木) 21:46:38.46ID:AKu5M211a930デフォルトの名無しさん (ワッチョイ 679f-lEE9)
2018/03/01(木) 22:57:30.16ID:bWNt6Hcx0 オンライン学習を使わない場合は
モデルを継続的にメンテナンスするのに
モデル作成時とそれ以降のトレーニングデータを
延々と保持し続ける必要があるということ?
実務ではどうやっているのだろう
モデルを継続的にメンテナンスするのに
モデル作成時とそれ以降のトレーニングデータを
延々と保持し続ける必要があるということ?
実務ではどうやっているのだろう
931デフォルトの名無しさん (アウアウイー Sadb-IhxS)
2018/03/02(金) 00:05:23.29ID:2VXIKrxEa 時系列的に変化してゆくものなら
初期モデルを保持する必要はないでしょう
初期状況がスタートになるデータと、
そうでないデータがあるなら
両者保持してそれぞれに適用する。
後者は動的に変化させてもいいし初期を引きずる
必要もない。
ま、置かれた状況に寄りということになるでしょうね。
初期モデルを保持する必要はないでしょう
初期状況がスタートになるデータと、
そうでないデータがあるなら
両者保持してそれぞれに適用する。
後者は動的に変化させてもいいし初期を引きずる
必要もない。
ま、置かれた状況に寄りということになるでしょうね。
932デフォルトの名無しさん (アウアウイー Sadb-IhxS)
2018/03/02(金) 00:11:29.37ID:2VXIKrxEa ロバスト性の維持を必要とするかしないか
今のAIはその辺りの思考は適当かもしれない
今のAIはその辺りの思考は適当かもしれない
933デフォルトの名無しさん (ワッチョイ 071e-wl/W)
2018/03/02(金) 01:49:20.06ID:ebZcAzDQ0 CNTKってどうなん?
934デフォルトの名無しさん (スップ Sd7f-HBHb)
2018/03/02(金) 02:06:55.75ID:7H1be8c+d 意外に悪くないよ
935デフォルトの名無しさん (ワッチョイ 679f-lEE9)
2018/03/02(金) 08:10:24.81ID:4WDSbwMd0 例えば手書き文字認識で最初に1万件のトレーニングデータで判別モデルを構築
その後新たに2万件のデータが入手できてそれをモデルに学習させるという場合
合わせて3万件のデータで適切なパラメータを探してテストしてモデルを構築することになるのかな
これはモデルを新しく構築するのと変わらないように思えるけど
つまり「学習≒モデルの新規作成」ということなのかな
これを続けるといずれはリソース不足になるけど
それを防ぐために最新の3万件を使ってモデルを構築するしくみにすると
切り捨てた古いデータから得られた知見はモデルに反映されないということになるのかな
その後新たに2万件のデータが入手できてそれをモデルに学習させるという場合
合わせて3万件のデータで適切なパラメータを探してテストしてモデルを構築することになるのかな
これはモデルを新しく構築するのと変わらないように思えるけど
つまり「学習≒モデルの新規作成」ということなのかな
これを続けるといずれはリソース不足になるけど
それを防ぐために最新の3万件を使ってモデルを構築するしくみにすると
切り捨てた古いデータから得られた知見はモデルに反映されないということになるのかな
936デフォルトの名無しさん (ワッチョイ 67b3-5maD)
2018/03/02(金) 09:04:33.85ID:y8jT/VpV0 サポートベクター回帰のことで質問。
目的関数や判別関数のなかにΣ(a-a*)っていう項がある。
a*は何を指していて、どうやって計算すればいいのだろうか。
ひょっとして、回帰曲線より上にあるデータに関してはaを計算し、
下にあるのはa*を計算するっていう風にするのかな?
もしそうだとすると、学習中は回帰曲線が変化していくのに合わせて、
aかa*かを変えていくってことなのかな?
実際の数式は、例えば↓のP.11
ttp://datachemeng.com/wp-content/uploads/supportvectorregression.pdf
目的関数や判別関数のなかにΣ(a-a*)っていう項がある。
a*は何を指していて、どうやって計算すればいいのだろうか。
ひょっとして、回帰曲線より上にあるデータに関してはaを計算し、
下にあるのはa*を計算するっていう風にするのかな?
もしそうだとすると、学習中は回帰曲線が変化していくのに合わせて、
aかa*かを変えていくってことなのかな?
実際の数式は、例えば↓のP.11
ttp://datachemeng.com/wp-content/uploads/supportvectorregression.pdf
937デフォルトの名無しさん (スップ Sd7f-mqjH)
2018/03/02(金) 09:11:06.56ID:1juFpgM6d >>935
オンライン学習だね
ディープ系だとあとから追加された教師データの影響が限定的な気がする
あとから追加された教師データで別のモデル作って、旧モデルとのアンサンブルを蒸留したほうが実用的には良い気がする
オンライン学習だね
ディープ系だとあとから追加された教師データの影響が限定的な気がする
あとから追加された教師データで別のモデル作って、旧モデルとのアンサンブルを蒸留したほうが実用的には良い気がする
938デフォルトの名無しさん (ワッチョイ bf96-lay+)
2018/03/02(金) 09:17:42.49ID:zvF9L+3q0 eラーニング
939デフォルトの名無しさん (アウウィフ FF2b-NBPA)
2018/03/02(金) 13:24:22.11ID:NpAiIv/CF940デフォルトの名無しさん (ワッチョイ 071e-wl/W)
2018/03/02(金) 13:47:26.85ID:ebZcAzDQ0 いつのまにかkerasがCNTKに対応してたんだけど、やっぱりwindowsだとCNTKのほうが相性よかったりするんだろうか
941デフォルトの名無しさん (アウアウウー Sa2b-Vuv9)
2018/03/02(金) 14:40:53.80ID:gz0qql/3a >>940
CNTK の Keras 対応はまだベータのままだと思うよ
CNTK の Keras 対応はまだベータのままだと思うよ
942デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/03(土) 01:23:22.40ID:QYvE6JE10943デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/03(土) 01:33:49.21ID:QYvE6JE10 しもた
どや顔してまちがえてしまた
ただの同じ種類の変数やん。
どや顔してまちがえてしまた
ただの同じ種類の変数やん。
944デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/03(土) 01:38:13.25ID:QYvE6JE10 それぞれただの重みです。
945デフォルトの名無しさん (ワッチョイ 67b3-5maD)
2018/03/03(土) 09:02:30.36ID:zx4Tcgpy0 >>944
重みというか、重みに関係するラグランジュ乗数だよ。
各学習データに乗数が2つあると考えるのかな?
あと、ついでに、この乗数を計算する更新式を知らないかな?
SVMの学習に使う更新式は見つかるんだけど、SVRの更新式が見つからない。
重みというか、重みに関係するラグランジュ乗数だよ。
各学習データに乗数が2つあると考えるのかな?
あと、ついでに、この乗数を計算する更新式を知らないかな?
SVMの学習に使う更新式は見つかるんだけど、SVRの更新式が見つからない。
946デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/03(土) 12:11:55.96ID:QYvE6JE10 これらは筆者独特の説明のためにαとα*に分けただけ
本来はα-α*=A、α+α*=A'とでもおけばよい
ついでに言うとどうでもいいことだがこれらは本来のラグランジュの未定乗数法の定数ではない
筆者は何か定義を間違えてるのでは?
本来はα-α*=A、α+α*=A'とでもおけばよい
ついでに言うとどうでもいいことだがこれらは本来のラグランジュの未定乗数法の定数ではない
筆者は何か定義を間違えてるのでは?
947デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/03(土) 12:18:15.24ID:QYvE6JE10 リンク先の資料ではなく
他の参考書なりネットで落ちてる他のものを見たほうがいいと思うけど。
基本的には重みを変化させて評価関数が小さくなるように重みを更新したらいいだけ。その方法は勾配法なり何でもよい
他の参考書なりネットで落ちてる他のものを見たほうがいいと思うけど。
基本的には重みを変化させて評価関数が小さくなるように重みを更新したらいいだけ。その方法は勾配法なり何でもよい
948デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/03(土) 12:23:10.66ID:QYvE6JE10 というか後半は二次形式になるから評価関数を偏微分して=0とし、重みに関する行列つくって逆行列求めて終わり
949デフォルトの名無しさん (ワッチョイ 67b3-5maD)
2018/03/03(土) 12:58:57.79ID:zx4Tcgpy0950デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/03(土) 13:18:42.05ID:QYvE6JE10 >>949
いやだからリンク先の資料は説明のための式変形だってば。意味を見いだすためだけの式展開。
方法は単純に中点法なりランダム法とかでよい。ただの凸関数だし。
適当に重みを2パターン用意して2点の評価関数を計算。さらに重みをそれぞれの中点求めてその値での評価関数も計算。一番評価関数が小さいものを更新。それでいける。
そもそも評価関数が重み定数の二次形式になってるから、最適解は一つしかなく、評価関数を重みベクトルの行列で表すとry
いやだからリンク先の資料は説明のための式変形だってば。意味を見いだすためだけの式展開。
方法は単純に中点法なりランダム法とかでよい。ただの凸関数だし。
適当に重みを2パターン用意して2点の評価関数を計算。さらに重みをそれぞれの中点求めてその値での評価関数も計算。一番評価関数が小さいものを更新。それでいける。
そもそも評価関数が重み定数の二次形式になってるから、最適解は一つしかなく、評価関数を重みベクトルの行列で表すとry
951デフォルトの名無しさん (アウアウエー Sa9f-wl/W)
2018/03/03(土) 13:25:34.13ID:Cp/R2Woua952デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/03(土) 13:29:17.06ID:QYvE6JE10 いや逆行列いっぱつで終わり
953デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/03(土) 13:30:38.75ID:QYvE6JE10 その辺がカーネル法のいいところですな
954デフォルトの名無しさん (ワッチョイ 67b3-5maD)
2018/03/03(土) 14:07:43.34ID:zx4Tcgpy0955デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/03(土) 14:17:53.69ID:QYvE6JE10 イエス
行列Qが正定値のときは書いてあるね
行列Qが正定値のときは書いてあるね
956デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/03(土) 14:53:16.81ID:QYvE6JE10 まあ一回偏微分してからな
957デフォルトの名無しさん (ワッチョイ 67b3-5maD)
2018/03/03(土) 15:31:05.81ID:zx4Tcgpy0958デフォルトの名無しさん (ワッチョイ bf8a-k3ZN)
2018/03/03(土) 18:33:17.84ID:ADWd0VUJ0 逆行列を計算する方法知ってるかいな?次元は知らんけど
959デフォルトの名無しさん (アウアウイー Sadb-IhxS)
2018/03/03(土) 21:51:51.31ID:iqY33+Pma >>954
なつかしいサイトや
なつかしいサイトや
960デフォルトの名無しさん (ワッチョイ 478a-81ea)
2018/03/05(月) 23:12:50.88ID:ph+TktTG0 カーネル法は応用が効くのに何で流行らないんだろ?
961デフォルトの名無しさん (スップ Sdff-HBHb)
2018/03/06(火) 03:28:02.01ID:wxtYCQrgd 企業の仕事だと上司も客もTFを求めるから
962デフォルトの名無しさん (ワッチョイ 071e-wl/W)
2018/03/06(火) 03:50:25.33ID:sizHzr450 ちげえよ。
ニューラルネットの性能のほうが圧倒的になった今、もはや過去の産物が必要とされないから
ニューラルネットの性能のほうが圧倒的になった今、もはや過去の産物が必要とされないから
963デフォルトの名無しさん (アウアウウー Sa2b-dKqy)
2018/03/06(火) 08:19:13.07ID:QEn59aqra バカほど盲信するディープラーニング
964デフォルトの名無しさん (スッップ Sdff-81ea)
2018/03/06(火) 08:43:23.79ID:UO7IaHCDd そもそもカーネル法は単体の技術じゃない。
他の手法と併用出来る応用性の高い技術。応用先はサポートベクトルマシンに限らない。
他の手法と併用出来る応用性の高い技術。応用先はサポートベクトルマシンに限らない。
965デフォルトの名無しさん (スッップ Sdff-81ea)
2018/03/06(火) 08:54:58.40ID:UO7IaHCDd ディープラーニングにもカーネル法は当然応用できるが、単純にただ併用するだけでは意味がない。
恐らくもうすでに誰かがやってると思われるが、その結果だけでカーネル法ダメダメと決めつけるのは勿体ない。
もう一工夫取り入れると‥‥
恐らくもうすでに誰かがやってると思われるが、その結果だけでカーネル法ダメダメと決めつけるのは勿体ない。
もう一工夫取り入れると‥‥
966デフォルトの名無しさん (スッップ Sdff-81ea)
2018/03/06(火) 08:57:56.39ID:UO7IaHCDd ってところまで誰かやってくんないかな〜。
業種が違うから表に出せる機会がない
業種が違うから表に出せる機会がない
967デフォルトの名無しさん (ワッチョイ e733-i/dJ)
2018/03/06(火) 10:13:56.02ID:VVMRPFAR0 理論的、究極的にはにはそういう前処理すら必要ないのがニューラルネットだけどね
その操作が本当に判別に有効ならそういう処理を行う層が学習されるだけだし
その操作が本当に判別に有効ならそういう処理を行う層が学習されるだけだし
968デフォルトの名無しさん (スフッ Sdff-mvGf)
2018/03/06(火) 11:05:05.51ID:05hne0v2d ニューラルネットは前処理いるじゃねえの?今は違うのか?
969デフォルトの名無しさん (スップ Sd7f-81ea)
2018/03/06(火) 11:42:04.46ID:SM6pHaSvd 前処理用とは誰も言ってないのだが‥
970デフォルトの名無しさん (スップ Sd7f-81ea)
2018/03/06(火) 11:42:45.34ID:SM6pHaSvd メインで使用できると言ってる
971デフォルトの名無しさん (アウアウイー Sadb-IhxS)
2018/03/06(火) 11:44:24.56ID:1xSMtB3+a972デフォルトの名無しさん (スップ Sd7f-81ea)
2018/03/06(火) 11:46:04.12ID:SM6pHaSvd973デフォルトの名無しさん (アウアウウー Sa2b-DEn+)
2018/03/06(火) 12:01:17.98ID:gz2FOhnva974デフォルトの名無しさん (ワッチョイ 5f96-lay+)
2018/03/06(火) 12:06:24.48ID:XSsM00DU0 尿意
975デフォルトの名無しさん (ワッチョイ 272d-F3C2)
2018/03/06(火) 16:11:33.02ID:g5lw9qO+0 PRMLもすっかり過去の本になってしまった
976デフォルトの名無しさん (ワッチョイ e78a-k3ZN)
2018/03/06(火) 16:14:04.73ID:JKPn9pwx0 何が新しいの?
977デフォルトの名無しさん (ワッチョイ e733-i/dJ)
2018/03/06(火) 18:40:12.76ID:VVMRPFAR0 究極的にはって書いたけどそれでも違うの?
理論上は無限層重ねたNNはいかなる関数近似もできると思ってたけど
理論上は無限層重ねたNNはいかなる関数近似もできると思ってたけど
978デフォルトの名無しさん (ワッチョイ e733-i/dJ)
2018/03/06(火) 19:04:40.81ID:VVMRPFAR0 仮にNN中で汎化性能維持するのにカーネル法使うにしても「もうひと工夫」がなにしたいのかもわからん状態じゃなんとも…
979デフォルトの名無しさん (ガックシ 068f-mvGf)
2018/03/06(火) 19:48:16.11ID:KV/wZ8PJ6 3層でもいかなる関数も近似できるよ。理論上はねw
980デフォルトの名無しさん (スップ Sdff-81ea)
2018/03/06(火) 21:48:30.74ID:yY9DlZz/d981デフォルトの名無しさん (ワッチョイ e733-i/dJ)
2018/03/07(水) 04:26:14.78ID:Jr/y1r5j0 そういえば皆さん中間層1つのNNって何層NNって読んでるの
全結合処理に重点おいて2層って言う人と、ノードに重点おいて3層って言う人がいる印象
全結合処理に重点おいて2層って言う人と、ノードに重点おいて3層って言う人がいる印象
レス数が950を超えています。1000を超えると書き込みができなくなります。
