探検
【統計分析】機械学習・データマイニング26
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん (ワッチョイ efda-zBa2 [223.217.165.150])
2019/09/15(日) 09:23:06.34ID:bjsiNRs40機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
Machine Learningを用いた論文一覧2018
https://shiropen.com/seamless/machine-learning/2018
2017年のディープラーニング論文100選
https://qiita.com/sakaiakira/items/f225b670bea6d851c7ea
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング23
https://mevius.5ch.net/test/read.cgi/tech/1551352040/
-
【統計分析】機械学習・データマイニング25
https://mevius.5ch.net/test/read.cgi/tech/1561568018/
【統計分析】機械学習・データマイニング24
https://mevius.5ch.net/test/read.cgi/tech/1556674785/
-
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:----: EXT was configured
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:: EXT was configured
592デフォルトの名無しさん (アウアウエー Saea-/L9V [111.239.60.96])
2019/11/26(火) 22:54:22.47ID:qL3WJ7tta まあ、人間も問題の意図している理解をしているとは限らないからな
593デフォルトの名無しさん (ワッチョイ 03da-BEIG [58.89.130.35])
2019/11/27(水) 09:01:28.12ID:dU+ct8c00 入試問題を解くのは条件反射、出題の意図を理解するのは無駄(笑)
594デフォルトの名無しさん (ワンミングク MM82-Gedh [153.235.108.33])
2019/11/27(水) 14:25:38.08ID:pvWhqXzvM curriculum learningてどうよ?
効果を感じないんだが。。。
効果を感じないんだが。。。
595デフォルトの名無しさん (ワッチョイ bf01-qZD/ [60.86.178.93])
2019/11/27(水) 14:44:38.10ID:R3eAH8fN0 >>594
にんげんさまが指示してやらねばならん部分・・・
階段の刻み方(どういう方法で難しさを順位付けするか)
が悪いんでね?
あるいは
これもやっぱりにんげんさまが指示してやらねばならん部分・・・
レベル1の勇者にいきなりたまにはぐれメタルエンカウントさせちゃう的な、
試練の与え方が悪いか。
にんげんさまが指示してやらねばならん部分・・・
階段の刻み方(どういう方法で難しさを順位付けするか)
が悪いんでね?
あるいは
これもやっぱりにんげんさまが指示してやらねばならん部分・・・
レベル1の勇者にいきなりたまにはぐれメタルエンカウントさせちゃう的な、
試練の与え方が悪いか。
596デフォルトの名無しさん (ワンミングク MM82-Gedh [153.235.108.33])
2019/11/27(水) 14:50:18.75ID:pvWhqXzvM nlpなんだけど
ミニバッチ作るときに自然にもうcurriculum learning的になっているのかな?
ミニバッチ作るときに自然にもうcurriculum learning的になっているのかな?
597デフォルトの名無しさん (ワッチョイ df4b-YC6P [210.188.42.19])
2019/11/28(木) 22:01:34.94ID:Y+wConzQ0 訓練データとテストデータの相関性がほとんどない問題とか
当てずっぽうで適当に振るところから始めて反応見て方向性定めているのか?
パワーと投稿数の勝負になっている気がしてならないけど
当てずっぽうで適当に振るところから始めて反応見て方向性定めているのか?
パワーと投稿数の勝負になっている気がしてならないけど
598デフォルトの名無しさん (アウアウウー Sa23-8b9h [106.161.209.107])
2019/11/28(木) 22:37:12.05ID:fUP9hRZYa599デフォルトの名無しさん (ワッチョイ 5fad-q7p1 [110.130.184.72])
2019/11/29(金) 00:17:47.54ID:lLJmxOHf0 Kaggleとかの機械学習コンペで主催者(依頼者)が持ってるマシンよりも参加者(優勝者)がコンペで使ったマシンのほうが性能良いってことあったりするの?
600デフォルトの名無しさん (ワッチョイ 7f3d-YC6P [219.104.75.160])
2019/11/29(金) 02:03:47.84ID:ZRMLeeOO0 主催者がもってるマシンってなんぞ
601デフォルトの名無しさん (ワッチョイ 7f9c-rPqt [61.125.210.189])
2019/11/29(金) 02:04:56.14ID:WPSMNOiN0 マシン持ってない可能性も高いだろう
602デフォルトの名無しさん (アウアウクー MM33-O/Gm [36.11.225.189])
2019/11/29(金) 09:49:10.05ID:gYWo3w4cM Deep Learning散々騒いだ割には結局テーブルデータじゃGBDTにボロ負けな現状なんとかならんの
せいぜいGBDT様にお情けでensembleさせて頂く程度
せいぜいGBDT様にお情けでensembleさせて頂く程度
603デフォルトの名無しさん (ワンミングク MMdf-LjR8 [153.235.108.33])
2019/11/29(金) 12:49:35.84ID:9onQejqxM つ適材適所
604デフォルトの名無しさん (ワッチョイ 7f9c-rPqt [61.125.210.189])
2019/11/29(金) 16:11:35.42ID:WPSMNOiN0 >>602
テーブルデータの解析で話題になったわけじゃないぞ
テーブルデータの解析で話題になったわけじゃないぞ
605デフォルトの名無しさん (オッペケ Sr33-aoSH [126.208.181.193])
2019/11/29(金) 19:08:43.15ID:rfU0XW80r >>604
多分だけどニューラルネットワークは汎用性が高いだけで、画像系でももっと良いほうがあるけど見つかってないだけと思ってる
多分だけどニューラルネットワークは汎用性が高いだけで、画像系でももっと良いほうがあるけど見つかってないだけと思ってる
606デフォルトの名無しさん (ワッチョイ 7f7c-Hu9A [221.241.223.124])
2019/11/29(金) 19:15:32.09ID:Ab9Y7Svv0 >>605
画像処理で高精度が出るDNNのモデルサイズを精度をあまり下げずに削減するような研究が出てきてるから、それを突き詰めると決定木的なルールが取り出せるのではないか
画像処理で高精度が出るDNNのモデルサイズを精度をあまり下げずに削減するような研究が出てきてるから、それを突き詰めると決定木的なルールが取り出せるのではないか
607デフォルトの名無しさん (ワンミングク MMdf-LjR8 [153.235.108.33])
2019/11/29(金) 19:18:55.66ID:9onQejqxM えーまた同じ間違いを?
608デフォルトの名無しさん (ワッチョイ 5fda-VdzI [60.47.95.202])
2019/11/29(金) 21:04:43.23ID:i2+wAL7T0 >>602
データテーブルでも回帰の滑らかさではnnが上だけどな。
データテーブルでも回帰の滑らかさではnnが上だけどな。
609デフォルトの名無しさん (ワッチョイ 7f3d-YC6P [219.104.75.160])
2019/11/29(金) 23:37:12.91ID:ZRMLeeOO0610デフォルトの名無しさん (ワッチョイ 7f1f-R3ru [221.191.70.126])
2019/11/30(土) 09:04:53.45ID:DZbtLtp60 回帰がなめらかじゃないと困るって、たぶんあるとは思うけど具体的にどういうケースだろう
611デフォルトの名無しさん (ワッチョイ 5f01-YC6P [126.25.131.86])
2019/11/30(土) 09:36:17.16ID:Uqy6J8Cl0 >調律師次第ではNNもGBDTに精度で並ぶ
んなわけねーだろ。。データが 2000,3000程度の場合、NNなんてまともに動かんわ。
んなわけねーだろ。。データが 2000,3000程度の場合、NNなんてまともに動かんわ。
612デフォルトの名無しさん (アウアウウー Sa23-29PW [106.154.127.208])
2019/11/30(土) 09:52:40.58ID:vuvC9RZIa >>609
モデルの劣化って汎化能力が低いってこと?
モデルの劣化って汎化能力が低いってこと?
613デフォルトの名無しさん (ワッチョイ 5fe6-nvwQ [14.3.46.121])
2019/11/30(土) 10:17:22.90ID:g/CprbiQ0 overfitじゃない?
614デフォルトの名無しさん (アウアウウー Sa23-nO0S [106.154.136.36])
2019/11/30(土) 10:53:06.13ID:xqSKATFaa >>611
それもNNの規模次第でゎ。。。
それもNNの規模次第でゎ。。。
615デフォルトの名無しさん (アウアウウー Sa23-nO0S [106.154.136.36])
2019/11/30(土) 10:54:38.50ID:xqSKATFaa616デフォルトの名無しさん (ワッチョイ 5f01-YC6P [126.25.131.86])
2019/11/30(土) 12:02:50.26ID:Uqy6J8Cl0617デフォルトの名無しさん (アウアウカー Sad3-BXt7 [182.251.106.23])
2019/11/30(土) 12:09:04.69ID:A+rR0WU8a はい
618デフォルトの名無しさん (アークセー Sx33-O/Gm [126.149.48.137])
2019/11/30(土) 12:58:50.37ID:YcFQTR8Rx なんか悪かった
どう考えてもGBDTの方が精度出る案件でクライアントがでぃいぷらあにんぐ使いたいですってほざくから
むしゃくしゃしてやっただけなんだ
NGBoostは学習も推論も遅いし予測分布も分類じゃそんなに嬉しくないし結局LightGBM/CatBoostは超えられなさそうだよなぁ
どう考えてもGBDTの方が精度出る案件でクライアントがでぃいぷらあにんぐ使いたいですってほざくから
むしゃくしゃしてやっただけなんだ
NGBoostは学習も推論も遅いし予測分布も分類じゃそんなに嬉しくないし結局LightGBM/CatBoostは超えられなさそうだよなぁ
619デフォルトの名無しさん (ワッチョイ 5f01-d0qP [60.86.178.93])
2019/11/30(土) 13:03:41.07ID:OO2kPiiB0 >>618
> どう考えてもGBDTの方が精度出る案件でクライアントがでぃいぷらあにんぐ使いたいですってほざく
発注元の責任で このでぃーぷするとです って
明文化しとけよw
あとから責任おっかぶせられそうになると
ブチ切れちゃうぞw
> どう考えてもGBDTの方が精度出る案件でクライアントがでぃいぷらあにんぐ使いたいですってほざく
発注元の責任で このでぃーぷするとです って
明文化しとけよw
あとから責任おっかぶせられそうになると
ブチ切れちゃうぞw
620デフォルトの名無しさん (ワッチョイ dfda-o7DB [58.89.134.119])
2019/11/30(土) 13:57:35.50ID:kDVEf3m10 政策もビッグデータで決めるようになるらしい
621デフォルトの名無しさん (ワッチョイ 5f01-d0qP [60.86.178.93])
2019/11/30(土) 13:59:00.59ID:OO2kPiiB0622デフォルトの名無しさん (ワッチョイ 5fda-VdzI [60.47.95.202])
2019/11/30(土) 15:42:08.94ID:NbIvukTW0623デフォルトの名無しさん (アウアウカー Sad3-rPqt [182.251.111.240])
2019/11/30(土) 16:47:02.28ID:n3PjdAM0a 数万程度のデータでNNは流石に無理だろう
過学習して終わるイメージ
過学習して終わるイメージ
624デフォルトの名無しさん (ワッチョイ 7f3d-YC6P [219.104.75.160])
2019/11/30(土) 17:12:57.03ID:369/mHN+0 パンピーには関係ない話だけど、
Kaggleで賞金狙えるレベルの人の中には、稀にNNでGBと大差ない精度を出す者もおるんだ
これはたびたびカーネルに出る話題だから間違いない
GBで特徴量を400程度使って出す精度と、ほぼ同等の精度を特徴量20~50程度で出すらしい
NNは前処理もパラメーター調整もシビアだけど、この少ない特徴量でモデルを組めれば、
実装後にデータの傾向が多少変わっても、GBDTよりは精度が落ちない
Kaggleで賞金狙えるレベルの人の中には、稀にNNでGBと大差ない精度を出す者もおるんだ
これはたびたびカーネルに出る話題だから間違いない
GBで特徴量を400程度使って出す精度と、ほぼ同等の精度を特徴量20~50程度で出すらしい
NNは前処理もパラメーター調整もシビアだけど、この少ない特徴量でモデルを組めれば、
実装後にデータの傾向が多少変わっても、GBDTよりは精度が落ちない
625デフォルトの名無しさん (JP 0Hdf-0B+b [153.143.142.27])
2019/11/30(土) 17:34:03.26ID:CwbTtXvfH そんな怖いモデル使えないっす
626デフォルトの名無しさん (アウアウカー Sad3-oB5y [182.251.159.1])
2019/11/30(土) 17:54:56.02ID:U4j9IED8a 長期に渡って現場で使い続けられるかという観点ではパラメータをやたらと増やした力ずくモデルの方が信用ならない危険なモデルなんだけどな
627デフォルトの名無しさん (アークセー Sx33-O/Gm [126.149.48.137])
2019/11/30(土) 18:09:44.73ID:YcFQTR8Rx 実務上は精度追い求めるよりFeature Importanceが出せるかどうかの方が重要なんだよなぁ
628デフォルトの名無しさん (ワッチョイ 7f02-YC6P [101.142.8.160])
2019/11/30(土) 18:32:57.53ID:HNwCuvLH0 NNでもGBでもいいけど、>>618のような客が使う道具まで指定してくるのがイタイ
これで失敗した場合の瑕疵担保責任はどっちにあるんだ?
これで失敗した場合の瑕疵担保責任はどっちにあるんだ?
629デフォルトの名無しさん (ワッチョイ 5f01-YC6P [126.25.131.86])
2019/11/30(土) 18:40:26.81ID:Uqy6J8Cl0 >GBで特徴量を400程度使って出す精度と、ほぼ同等の精度を特徴量20~50程度で出すらしい
そりゃ20~50にうまく特徴量を絞れたらそうだろ。それが難しいんだっつーの。
それを半自動でやりたいってのがそもそもの機械学習の目的だろうに。
そりゃ20~50にうまく特徴量を絞れたらそうだろ。それが難しいんだっつーの。
それを半自動でやりたいってのがそもそもの機械学習の目的だろうに。
630デフォルトの名無しさん (ワッチョイ 5f01-d0qP [60.86.178.93])
2019/11/30(土) 18:47:56.68ID:OO2kPiiB0631デフォルトの名無しさん (ワッチョイ 5f01-d0qP [60.86.178.93])
2019/11/30(土) 18:49:01.71ID:OO2kPiiB0 「渡り鳥の渡り行動の研究するよ!
モデル動物はニワトリ指定な!!」くらいの
明瞭な無茶苦茶さがあれば楽なんだがなw
モデル動物はニワトリ指定な!!」くらいの
明瞭な無茶苦茶さがあれば楽なんだがなw
632デフォルトの名無しさん (アークセー Sx33-O/Gm [126.149.48.137])
2019/11/30(土) 19:06:06.12ID:YcFQTR8Rx 大体4000件しかないデータで何すんだよ
Titanicじゃねーんだぞ
Titanicじゃねーんだぞ
633デフォルトの名無しさん (ワッチョイ 7f1f-R3ru [221.191.70.126])
2019/11/30(土) 19:19:04.99ID:DZbtLtp60634デフォルトの名無しさん (スフッ Sd9f-DWOz [49.104.6.183])
2019/12/01(日) 09:32:45.02ID:loLKdL8Wd このソニーのニューラルネットワーク関連の解説動画どうよ?
https://www.youtube.com/channel/UCRTV5p4JsXV3YTdYpTJECRA
良い動画だと思うんだけど、このスレの人たちの意見を聞きたいです。
https://www.youtube.com/channel/UCRTV5p4JsXV3YTdYpTJECRA
良い動画だと思うんだけど、このスレの人たちの意見を聞きたいです。
635デフォルトの名無しさん (ワッチョイ df02-R3ru [106.166.50.77])
2019/12/01(日) 09:34:39.98ID:YoP0MD/80 アノテーションツールとしてVoTTとlabelImgが紹介されているが
VoTTの方が楽かな
ただしtag名を入力してから、最後にエンターキーを押さないと
それが確定しない、という事を知っておかないと
いつまで経ってもtagすら作れないw
labelImgはpythonのpyqtから作るからワクワク感があるが、
自分の落として来たバージョンがミスっていたのか、プログラム内のimportファイルの書き方に
3ヶ所エラーがあって、自分で「こんな行き当たりばったりの治し方で良いのかなあ?」
と直したら、とりあえずユーザーフォームが開く所までは動いた
だがまだ肝心なアノテーションを試してないなあ
ボロボロだったりして
VoTTの方が楽かな
ただしtag名を入力してから、最後にエンターキーを押さないと
それが確定しない、という事を知っておかないと
いつまで経ってもtagすら作れないw
labelImgはpythonのpyqtから作るからワクワク感があるが、
自分の落として来たバージョンがミスっていたのか、プログラム内のimportファイルの書き方に
3ヶ所エラーがあって、自分で「こんな行き当たりばったりの治し方で良いのかなあ?」
と直したら、とりあえずユーザーフォームが開く所までは動いた
だがまだ肝心なアノテーションを試してないなあ
ボロボロだったりして
636デフォルトの名無しさん (オッペケ Sr33-Y6BP [126.212.138.5])
2019/12/04(水) 16:01:19.77ID:tCRQbFTxr GPUのメモリがオーバーしてしまい
Jupyter閉じてプロセスID調べてtaskkillと
こんなの出来たんかwwwww
Jupyter閉じてプロセスID調べてtaskkillと
こんなの出来たんかwwwww
637デフォルトの名無しさん (ワンミングク MMdf-LjR8 [153.235.108.33])
2019/12/04(水) 16:29:35.31ID:9sxYmTh0M knnをneural netでやるのって無意味?
638デフォルトの名無しさん (ワッチョイ 5f01-YC6P [126.94.220.36])
2019/12/04(水) 16:54:35.12ID:vhuKISsK0 コリアン・ニュース・ネットワーク。
639デフォルトの名無しさん (ワッチョイ 5a9c-Xj+o [61.125.210.189])
2019/12/05(木) 20:26:03.41ID:NiCdCRl60 chainerやめちゃうのか
chainerXとかリソースメチャクチャ使ってたのに
やはりマーケティングの失敗だよなあ
非常に残念
chainerXとかリソースメチャクチャ使ってたのに
やはりマーケティングの失敗だよなあ
非常に残念
640デフォルトの名無しさん (ワッチョイ a102-V35x [106.166.50.77])
2019/12/05(木) 20:36:15.87ID:NKJ9SQ6T0 マジかよChainerの勉強もそこそこ進めてた矢先に
まあPyTorchが類似部分が多いから何とか
まあPyTorchが類似部分が多いから何とか
641デフォルトの名無しさん (ワッチョイ 5a9c-Xj+o [61.125.210.189])
2019/12/05(木) 20:52:35.88ID:NiCdCRl60 PyTorchに統一して欲しいね
TF2.0も今更感あるし
初心者向けのKerasとプロ用のPyTorchの2つでいいと思う
TF2.0も今更感あるし
初心者向けのKerasとプロ用のPyTorchの2つでいいと思う
642デフォルトの名無しさん (ワッチョイ bd54-8zr5 [180.235.0.69])
2019/12/05(木) 21:11:16.43ID:aecxiEdH0 粘着してたkerasの作者大勝利だな
643デフォルトの名無しさん (オッペケ Srb5-Q+Ca [126.208.221.112])
2019/12/05(木) 21:55:53.24ID:JFK1j8cBr chainet-rlの代わりは何がよいの?
cupyとoptunaは開発継続らしいよ
cupyとoptunaは開発継続らしいよ
644デフォルトの名無しさん (ワッチョイ eeda-ejxW [223.217.160.106])
2019/12/06(金) 01:37:39.24ID:GLXpNeMl0 マーケティングじゃなくてマンパワーの差。
645デフォルトの名無しさん (ワッチョイ a102-V35x [106.166.50.77])
2019/12/06(金) 04:01:13.87ID:1/Pn3P+Y0 何といっても深層学習の数学的な枠組みが分かってないと
使いにくいのがChainerとPyTorch
だが細かくカスタマイズし易いのがChainer&PyTorch
kerasは「何かこのタイミングでこれっぽい事したら上手く動くんじゃね?」ぐらいの理解でも
何とか動いてくれる
でも細かなカスタマイズは出来ないからTensorflow丸ごと弄ることになって、
そうなるとChainer&PyTorchより更に上のレベルの数学的な理解と
そのプログラミング上の実装を知っておく必要が出来てしまう
使いにくいのがChainerとPyTorch
だが細かくカスタマイズし易いのがChainer&PyTorch
kerasは「何かこのタイミングでこれっぽい事したら上手く動くんじゃね?」ぐらいの理解でも
何とか動いてくれる
でも細かなカスタマイズは出来ないからTensorflow丸ごと弄ることになって、
そうなるとChainer&PyTorchより更に上のレベルの数学的な理解と
そのプログラミング上の実装を知っておく必要が出来てしまう
646デフォルトの名無しさん (ワッチョイ eeda-ejxW [223.217.160.106])
2019/12/06(金) 07:42:41.87ID:GLXpNeMl0 まあ、良いのではないでしょうか
マイナーチャンジに力を注ぐより、より良きものを求めることが立場
マイナーチャンジに力を注ぐより、より良きものを求めることが立場
647デフォルトの名無しさん (ワッチョイ eeda-ejxW [223.217.160.106])
2019/12/06(金) 07:43:08.75ID:GLXpNeMl0 できる立場
648デフォルトの名無しさん (アウアウクー MM75-MVf8 [36.11.224.68])
2019/12/07(土) 09:11:16.92ID:ARR8om9gM tf2.0とpytorchってシェアほぼ互角じゃない?
どっちに統一されるかは知らん。自分の使ってる方がマイナーになったら
あきらメロン
どっちに統一されるかは知らん。自分の使ってる方がマイナーになったら
あきらメロン
649デフォルトの名無しさん (ワッチョイ c9da-WBaP [114.184.82.243])
2019/12/07(土) 09:44:14.90ID:iMRj3aHc0 メロンです、請求書です。
650デフォルトの名無しさん (アウアウカー Sa8d-wxxp [182.251.144.43])
2019/12/07(土) 09:58:04.39ID:xi7Cj8Cta ツールが使えるだけで機械学習や統計を理解した気になっている人は危険だと言うことだ
本当に理論から理解していれば多少記法が変わったところですぐ順応できるが、特定のフレームワークを使った単なる作業者だとそのフレームワークが下火になった時に移行するのにかなりの労力が必要
本当に理論から理解していれば多少記法が変わったところですぐ順応できるが、特定のフレームワークを使った単なる作業者だとそのフレームワークが下火になった時に移行するのにかなりの労力が必要
651デフォルトの名無しさん (アウアウクー MM75-MVf8 [36.11.224.68])
2019/12/07(土) 10:43:12.55ID:ARR8om9gM はじパタ本とかゼロから作るで適当にベースを作っただけでも
複数のツールを使うぐらいならワケないけどな
でもそのレベルだとこれからは機械学習を専門職にはできない感じがする
複数のツールを使うぐらいならワケないけどな
でもそのレベルだとこれからは機械学習を専門職にはできない感じがする
652デフォルトの名無しさん (ワッチョイ 4d01-MVf8 [126.25.131.86])
2019/12/07(土) 12:39:37.05ID:ZsYnLuoj0 ハードウェアサポートが広い方を使いたいからtensorflowって感じになってる。
分散環境での学習とか、クライアント機でどれだけ動くのかがこれからの焦点なんじゃないかね。
コード内容自体はどっちも大して変わらん。バカは大騒ぎするけど。
分散環境での学習とか、クライアント機でどれだけ動くのかがこれからの焦点なんじゃないかね。
コード内容自体はどっちも大して変わらん。バカは大騒ぎするけど。
653デフォルトの名無しさん (ブーイモ MMe1-IfTI [210.138.178.45])
2019/12/07(土) 15:48:15.19ID:adovJNi9M ゼロから作るやっとくメリットで具体的になんですか?
654デフォルトの名無しさん (ワイーワ2 FFc2-EG+M [103.5.142.122])
2019/12/07(土) 15:58:51.31ID:kC4yD5gfF 自動微分を自分で実装すると手間だなというのが実感できる。
655デフォルトの名無しさん (ワッチョイ bd54-DV35 [180.235.0.69])
2019/12/07(土) 16:41:02.63ID:8POX1SPh0 あ、はい
656デフォルトの名無しさん (アウアウクー MM75-MVf8 [36.11.224.68])
2019/12/07(土) 16:52:12.95ID:ARR8om9gM >>653 NN、畳み込みNNやLSTMのロジックを一から理解できる
逆にいえば、そこ完璧にわかってるならやる意味ないだろうなあ
逆にいえば、そこ完璧にわかってるならやる意味ないだろうなあ
657デフォルトの名無しさん (アウアウカー Sa8d-wxxp [182.251.144.43])
2019/12/07(土) 17:00:30.01ID:xi7Cj8Cta 「ロジック知って何の意味あるの?知らなくても使えてるよ?」みたいなことを言う奴が出てきそう
658デフォルトの名無しさん (アウアウクー MM75-MVf8 [36.11.224.68])
2019/12/07(土) 17:06:56.43ID:ARR8om9gM お前が使えるレベルならそうなんだろうとしか言いようがないな
659デフォルトの名無しさん (ワッチョイ daad-XnaB [125.12.157.234])
2019/12/08(日) 08:50:34.91ID:pkvtzmnX0 つまり意味はない、ってことだな
660デフォルトの名無しさん (ワッチョイ 5a3d-MVf8 [219.104.75.160])
2019/12/08(日) 09:09:03.18ID:d61YKsOU0 >>659
好き
好き
661デフォルトの名無しさん (アウアウカー Sa8d-0KSf [182.251.189.13])
2019/12/08(日) 09:36:02.76ID:wx0c05j8a ハイパーパラメータの自動調整をまともに使うには背景にある統計理論の知識がいるよ
662デフォルトの名無しさん (ワッチョイ 6190-MVf8 [42.126.56.69])
2019/12/08(日) 13:55:46.22ID:KMc7Z1Fn0 chainerは単純に人員が足りてなかったと思う
リリース版にバグがあるままリリースしてる
リリース版の更新が多すぎ
で離れて使わなくなった
リリース版にバグがあるままリリースしてる
リリース版の更新が多すぎ
で離れて使わなくなった
663デフォルトの名無しさん (ワンミングク MM6a-DV35 [153.235.108.33])
2019/12/08(日) 15:40:26.42ID:dxbVA0b4M いうてtfもバグなしじゃないだろ
664デフォルトの名無しさん (ワッチョイ 4d01-MVf8 [126.25.131.86])
2019/12/08(日) 16:05:40.36ID:HPGGb6iI0665デフォルトの名無しさん (ワンミングク MM6a-DV35 [153.235.108.33])
2019/12/08(日) 16:11:39.81ID:dxbVA0b4M automlで適当に調整してくれるしな
666デフォルトの名無しさん (ワッチョイ 5a9c-Xj+o [61.125.210.189])
2019/12/08(日) 17:12:03.76ID:DDGzay+d0667デフォルトの名無しさん (アウアウカー Sa8d-wxxp [182.251.141.126])
2019/12/08(日) 17:15:40.02ID:S4ZYhJQRa ハイパーパラメータ調整ツール自体の調整能力まで把握した上で使うならいいが
理論も分からない、ツールがどうやって調整したのかも分からないだと困るな
「どうしてこのハイパーパラメータが最適なのか?」の質問に対して「ツールがそう算出したから」「論文に書いていたから」を回答にせず説明できるなら問題ないとは思う
理論も分からない、ツールがどうやって調整したのかも分からないだと困るな
「どうしてこのハイパーパラメータが最適なのか?」の質問に対して「ツールがそう算出したから」「論文に書いていたから」を回答にせず説明できるなら問題ないとは思う
668デフォルトの名無しさん (ワッチョイ 5a3d-MVf8 [219.104.75.160])
2019/12/08(日) 17:26:18.38ID:d61YKsOU0669デフォルトの名無しさん (ワッチョイ bd54-8zr5 [180.235.0.69])
2019/12/08(日) 17:31:13.86ID:4TAWhQS40 >>666
嫉妬じゃん
嫉妬じゃん
670デフォルトの名無しさん (ワッチョイ 6190-MVf8 [42.126.56.69])
2019/12/08(日) 19:49:05.17ID:KMc7Z1Fn0 pfnってなんか仕事はしてるだろ
トヨタとの共同研究ってまだ続いてるんじゃないの
トヨタとの共同研究ってまだ続いてるんじゃないの
671デフォルトの名無しさん (ワッチョイ ea02-MVf8 [101.142.8.160])
2019/12/08(日) 20:50:44.18ID:7TPIEo2i0 オコボレ狙いの企業が未だに群がってるから、財源の心配は無いだろう
人材に恵まれていないのか成果がパっとしないけど、
それでも日本のSI企業に頼るよりPFNに投資した方が賢い
人材に恵まれていないのか成果がパっとしないけど、
それでも日本のSI企業に頼るよりPFNに投資した方が賢い
672デフォルトの名無しさん (ワッチョイ f610-DJoW [153.131.102.129])
2019/12/08(日) 20:59:04.48ID:wWaHJEbO0673デフォルトの名無しさん (ワッチョイ 4d01-MVf8 [126.25.131.86])
2019/12/08(日) 21:32:17.42ID:HPGGb6iI0 PFNみてるとgoogleが広告やらなかったらこんな風にじり貧になってたんだろうなってのが想像できる。
674デフォルトの名無しさん (ワッチョイ 6190-MVf8 [42.126.56.69])
2019/12/08(日) 22:44:35.51ID:KMc7Z1Fn0 googleは元々広告で食ってるだろ
675デフォルトの名無しさん (ワッチョイ 5a9c-Xj+o [61.125.210.189])
2019/12/08(日) 23:18:41.13ID:DDGzay+d0676デフォルトの名無しさん (ワッチョイ 6190-MVf8 [42.126.56.69])
2019/12/08(日) 23:30:34.77ID:KMc7Z1Fn0 いちいち公開してないだけで色々案件はやってるだろ
677デフォルトの名無しさん (ワッチョイ eeda-ejxW [223.217.160.106])
2019/12/09(月) 00:20:35.28ID:NiFr8TmZ0 >>675
技術力って何?具体的に何のこと?
技術力って何?具体的に何のこと?
678デフォルトの名無しさん (ワッチョイ dd7c-s/HI [14.193.216.182])
2019/12/09(月) 01:54:46.39ID:PMVVzMoi0 第三者ってどの程度のこと言ってるか分からんけどCuPyとかoptuna使ってる人そこそこいるだろ
679デフォルトの名無しさん (ワッチョイ b5e3-mnWA [220.219.149.102])
2019/12/09(月) 13:00:46.54ID:cQNHGZkd0 機械学習で日本の人名を生成したい
どうすればできる?
当方しがないエンジニアでpythonはできるが、
機械学習周辺のキーワードがわからなくて調べられずに困っている
GANとかいうのは画像用だから使えないんだよな?程度の知識
どうすればできる?
当方しがないエンジニアでpythonはできるが、
機械学習周辺のキーワードがわからなくて調べられずに困っている
GANとかいうのは画像用だから使えないんだよな?程度の知識
680デフォルトの名無しさん (アウウィフ FF79-MVf8 [106.171.79.171])
2019/12/09(月) 13:09:35.22ID:RLwtKsqpF 日本の人名は戸籍に使える文字が決まってるから
そこから選べ
そこから選べ
681デフォルトの名無しさん (ワッチョイ b5e3-mnWA [220.219.149.102])
2019/12/09(月) 13:14:56.65ID:cQNHGZkd0682デフォルトの名無しさん (ワッチョイ d501-j5Jm [60.86.178.93])
2019/12/09(月) 13:55:54.49ID:scocuTx70683デフォルトの名無しさん (アウアウカー Sa8d-0KSf [182.251.195.157])
2019/12/09(月) 15:05:03.48ID:xDp47k0Pa ディープなことするよりマルコフ連鎖とかでやった方が良さそうだけどな
684デフォルトの名無しさん (アウウィフ FF79-MVf8 [106.171.79.171])
2019/12/09(月) 15:14:40.70ID:RLwtKsqpF 条件後出しは失格
685デフォルトの名無しさん (ワッチョイ bd54-8zr5 [180.235.0.69])
2019/12/09(月) 16:25:34.13ID:HdYgf83V0 ああ、同人誌みたいなライトノベルみたいなどうしようもないやつに使いたいのね
乱数でいいんじゃね?
乱数でいいんじゃね?
686デフォルトの名無しさん (アウアウエー Sa82-Fgt1 [111.239.58.229])
2019/12/09(月) 19:24:47.20ID:QTsW6dvXa ランダムな個人情報を生成するプログラムなら既にあるが
テストとかに使うらしい
テストとかに使うらしい
687デフォルトの名無しさん (ワッチョイ ea02-MVf8 [101.142.8.160])
2019/12/09(月) 21:39:53.12ID:w/kMOH0C0 人名ジェネレーターで良くない?
辞書リストと乱数で成り立っていてAI不要な
辞書リストと乱数で成り立っていてAI不要な
688デフォルトの名無しさん (ワッチョイ 5aad-CqlS [27.139.41.170])
2019/12/10(火) 04:20:23.19ID:0gRjlhkw0 デスノートのいじめが発生しないようにって配慮スゲーって思ったな
689デフォルトの名無しさん (アウウィフ FF79-MVf8 [106.171.67.227])
2019/12/10(火) 14:05:49.73ID:48kVELqAF 阿部進次郎
690デフォルトの名無しさん (ペラペラ SDe5-MVf8 [110.163.140.118])
2019/12/11(水) 19:37:08.57ID:LCchQiSlD ご質問なのですが、機械学習の回帰問題において、教師信号が特定の範囲内にある時の重みを重くするような損失関数はありますでしょうか?
私が解きたい問題においては、教師信号の値が0~1の間の値を取るように基準化しているのですが、
例えば、RMSEを下記のようにカスタマイズした損失関数を使用したいのです。
False Positive:学習器の出力は0〜0.2の範囲だが、教師信号は0.2より大きい or
学習器の出力は0.8〜1の範囲だが、教師信号は0.8未満
False Negative:教師信号の出力は0〜0.2の範囲だが、学習器の出力は0.2より大きい or
教師信号は0.8〜1の範囲だが、学習器の出力は0.8未満
とTrue negativeとFalse Negativeの場合にのみ損失関数を計算するか、重みを大きくした損失関数を使いたいのです。
もしご存じでしたら、この損失関数を使用可能な学習器やライブラリなどを教えていただけますでしょうか。
ライブラリなどが無くても最悪論文などがあればそれでもかまいません。何卒ご教示をお願いいたします。
私が解きたい問題においては、教師信号の値が0~1の間の値を取るように基準化しているのですが、
例えば、RMSEを下記のようにカスタマイズした損失関数を使用したいのです。
False Positive:学習器の出力は0〜0.2の範囲だが、教師信号は0.2より大きい or
学習器の出力は0.8〜1の範囲だが、教師信号は0.8未満
False Negative:教師信号の出力は0〜0.2の範囲だが、学習器の出力は0.2より大きい or
教師信号は0.8〜1の範囲だが、学習器の出力は0.8未満
とTrue negativeとFalse Negativeの場合にのみ損失関数を計算するか、重みを大きくした損失関数を使いたいのです。
もしご存じでしたら、この損失関数を使用可能な学習器やライブラリなどを教えていただけますでしょうか。
ライブラリなどが無くても最悪論文などがあればそれでもかまいません。何卒ご教示をお願いいたします。
691デフォルトの名無しさん (ワッチョイ bd54-8zr5 [180.235.0.69])
2019/12/11(水) 21:41:26.98ID:DwgG6llj0 わかんない
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- バリ島で男子生徒ら集団万引きか、防犯カメラ映像が拡散 京都の大谷中学・高校が「窃盗行為」謝罪★4 [七波羅探題★]
- 【地震速報】青森県で震度6強 沿岸部に津波警報 ★6 [ぐれ★]
- 「日の丸にバツ印」掲げた大学生 あいまいな国旗損壊罪に「怖い」 The Mainichi [少考さん★]
- 【サッカー】驚異の42得点0失点 中国を怒涛の5連勝に導いた日本人指揮官がまさかの退任か。協会対応に国民激怒 [征夷大将軍★]
- 【テレビ】25年ぶり復活「炎のチャレンジャー」南原清隆&菊池風磨がMC 懐かし「電流イライラ棒」も [湛然★]
- 【音楽】BARBEE BOYS・KONTAが事故で四肢麻痺を公表、新体制で活動は継続 [少考さん★]
- 【画像】童貞は絶ッッッ対"4"を選ぶバレー部J Kが寮でパンパンの集合写真見つけちゃったwwwwwwwwwwwwww [904880432]
- ( ・᷄ὢ・᷅ )あ?
- ブタをぶったたく
- こんな自転車乗ってたやつがいたら?
- 高校球児が大相撲入り。悪そうな顔しとるw [737440712]
- キムタク主演のドラマに山下の曲つければ爆売れ間違いなしだよな
