!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
↑すれたてる毎に1つずつ減るので、減ってたら3回に増やしてたてること。
機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです。
■前スレ
【統計分析】機械学習・データマイニング29
https://mevius.5ch.net/test/read.cgi/tech/1597882603/
-EOF-
【統計分析】機械学習・データマイニング30
https://mevius.5ch.net/test/read.cgi/tech/1609459855/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured
探検
【統計分析】機械学習・データマイニング31
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん (ワッチョイ 7b10-4VFp [114.163.141.1])
2021/09/26(日) 01:32:46.82ID:fnXwjiVa0518デフォルトの名無しさん (ワッチョイ 6204-cfd4 [131.213.243.150])
2022/05/07(土) 14:17:45.58ID:TDwBHkCb0 学習データの妥当性や追加のデータが必要かどうかも普通は打ち合わせしとくよね?
最終的なアウトプットを出す為に必要なデータもエンジニアから提案あるよね?
最終的なアウトプットを出す為に必要なデータもエンジニアから提案あるよね?
519デフォルトの名無しさん (ワッチョイ 0202-zDU0 [59.138.123.33])
2022/05/07(土) 14:31:19.87ID:9e79BjZl0 学習データが1000万件ぐらいあれば話が変わってくるけど
現実にあるのはせいぜい1万件、ひどいと100件ぐらいで
何とかしてくれと言ってくる
現実にあるのはせいぜい1万件、ひどいと100件ぐらいで
何とかしてくれと言ってくる
520デフォルトの名無しさん (ワッチョイ 6204-cfd4 [131.213.243.150])
2022/05/07(土) 14:35:10.26ID:TDwBHkCb0 無茶なこと言ってくる人多いからね
最初にはっきりさせておかないと後々面倒になるんだよ
今は周りも大分理解が進んできてるけどさ
最初にはっきりさせておかないと後々面倒になるんだよ
今は周りも大分理解が進んできてるけどさ
521デフォルトの名無しさん (アウアウウー Sac5-e+q+ [106.154.64.98])
2022/05/07(土) 14:51:30.69ID:cvuJwPv2a 「100件でやれ」といわれて「それじゃ少なすぎてできない」というのは簡単だけど
本当にできないとは限らないからな
そこが難しいところなんだよ
「やる気になれない」とか「俺には無理」ってだけ
本当にできないとは限らないからな
そこが難しいところなんだよ
「やる気になれない」とか「俺には無理」ってだけ
522デフォルトの名無しさん (ワッチョイ 8d7c-PvPk [122.218.227.106])
2022/05/07(土) 15:00:50.77ID:u2uFhB8a0 >>518
学習データの妥当性って基本的にベンダー側が確認するもんだよね?
お客さん的には、領収書と請求書が見分けられる提案が貰えれば、他はどうでもいい。
ベンダー側の危機感知能力に依存するんじゃないだろうか。
しくじると悲惨。しかも試験運用では完璧だったりする。
学習データの妥当性って基本的にベンダー側が確認するもんだよね?
お客さん的には、領収書と請求書が見分けられる提案が貰えれば、他はどうでもいい。
ベンダー側の危機感知能力に依存するんじゃないだろうか。
しくじると悲惨。しかも試験運用では完璧だったりする。
523デフォルトの名無しさん (ワッチョイ 6204-cfd4 [131.213.243.150])
2022/05/07(土) 15:02:08.44ID:TDwBHkCb0 自分の研究開発テーマだったら取り組む
他部門からの依頼だと確証が持てないから断るかな
他部門からの依頼だと確証が持てないから断るかな
524デフォルトの名無しさん (JP 0Hca-dy93 [103.163.220.76])
2022/05/09(月) 20:40:18.05ID:nBUQfFjcH 初心者の質問ですみません
学習中にバッチサイズを変更すると、lossとaccuracyが変わってしまうんですが、
バッチサイズによって収束値が変わるってことでしょうか?
それだとバッチサイズの設定が結果の精度に影響しませんか?
学習中にバッチサイズを変更すると、lossとaccuracyが変わってしまうんですが、
バッチサイズによって収束値が変わるってことでしょうか?
それだとバッチサイズの設定が結果の精度に影響しませんか?
525デフォルトの名無しさん (ワッチョイ ee10-UDwQ [153.243.43.6])
2022/05/10(火) 08:13:30.90ID:/XkHfgKF0 >>524
影響するよー。だからハイパーパラメータの調整はバッチサイズも含むんだよー。ミニバッチが内部的に何やってるかはググってね。でも、ざっくり、学習パラメータ最適化時のサンプリングサイズだと思えばいいよー
影響するよー。だからハイパーパラメータの調整はバッチサイズも含むんだよー。ミニバッチが内部的に何やってるかはググってね。でも、ざっくり、学習パラメータ最適化時のサンプリングサイズだと思えばいいよー
526デフォルトの名無しさん (JP 0Hca-tbBW [103.163.220.100])
2022/05/10(火) 08:51:59.10ID:NCnPeIRkH >>525
ありがとうございます
やっぱり影響するんですね
そうなると、モデルの作り方、パラメータの設定方法、必ず正しいというやり方がないので、
初心者にはハードルが高いですね
もうある程度適当にエイヤーでやってみるしかないですね
ありがとうございます
やっぱり影響するんですね
そうなると、モデルの作り方、パラメータの設定方法、必ず正しいというやり方がないので、
初心者にはハードルが高いですね
もうある程度適当にエイヤーでやってみるしかないですね
527デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6])
2022/05/10(火) 08:59:18.09ID:/XkHfgKF0 >>526
正しいやり方はないけど、単純なアルゴリズムでベースラインモデル作って評価基準を作り、独自のモデルがそれと比較して優位かを確認しながら進めるという、方法論のテンプレはあるよー。
今ならAutoMLを使うのもいいねー。対応しているタスクならだけどねー
正しいやり方はないけど、単純なアルゴリズムでベースラインモデル作って評価基準を作り、独自のモデルがそれと比較して優位かを確認しながら進めるという、方法論のテンプレはあるよー。
今ならAutoMLを使うのもいいねー。対応しているタスクならだけどねー
528デフォルトの名無しさん (JP 0Hca-wvgW [103.163.220.95])
2022/05/10(火) 09:43:02.83ID:Kl+PeJSAH529デフォルトの名無しさん (JP 0Hca-IBC7 [103.163.220.59])
2022/05/10(火) 11:29:37.64ID:a3woWy82H tpot自動すぎて怖いwww
エポック数すら指定しないし
追加学習したほうがよさそうなのにこれ以上は過学習になるんだろうか
エポック数すら指定しないし
追加学習したほうがよさそうなのにこれ以上は過学習になるんだろうか
530デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7])
2022/05/10(火) 13:14:08.17ID:zWCxNbfy0 バッチはサイズだけでなくサンプルのまとめ方が重要になる場合も
たとえば数字の文字認識をする場合は1つのバッチに0-9のサンプルがバランスよく
含まれるようにした方が学習がうまく行く
逆に、0だけ、1だけとかでバッチを作ってしまうとなかなか収束しなくなる
たとえば数字の文字認識をする場合は1つのバッチに0-9のサンプルがバランスよく
含まれるようにした方が学習がうまく行く
逆に、0だけ、1だけとかでバッチを作ってしまうとなかなか収束しなくなる
531デフォルトの名無しさん (ワッチョイ 9d6e-xesJ [138.64.67.32])
2022/05/10(火) 13:20:34.71ID:OS09Ye+10 前にtpot使ったけどボロボロだったぞ
532デフォルトの名無しさん (JP 0Hca-4Pmz [103.163.220.96])
2022/05/10(火) 14:00:41.96ID:J0ydLFpDH >>531
正直あんまり収束してない感じなので追加学習させたいのですが、やり方がわかりませんw
正直あんまり収束してない感じなので追加学習させたいのですが、やり方がわかりませんw
533デフォルトの名無しさん (ワッチョイ 7d5f-oYRD [106.73.226.99])
2022/05/10(火) 18:02:27.33ID:A/IfvceU0 >>530
確かにそういうこと起こりそうだけど、なんか指摘してる論文てあったっけ?
確かにそういうこと起こりそうだけど、なんか指摘してる論文てあったっけ?
534デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6])
2022/05/10(火) 18:17:38.04ID:/XkHfgKF0 >>533
具体的な論文は把握してないけど、時系列予測で考えると直感的な理解が得られ易いと思うよー
具体的な論文は把握してないけど、時系列予測で考えると直感的な理解が得られ易いと思うよー
535デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7])
2022/05/10(火) 18:35:36.21ID:zWCxNbfy0 >>533
俺も論文とかはわからないが教科書に載ってるレベルの話なような
バッチのサンプルでまとめて勾配を計算するので、サンプルのバランスが悪いと
ウエイトがあっちに行ったりこっちに行ったりしてしまうが、
バランスが良いとあるべき方向に真っ直ぐ進みやすい、ということかなと直感的には理解している
俺も論文とかはわからないが教科書に載ってるレベルの話なような
バッチのサンプルでまとめて勾配を計算するので、サンプルのバランスが悪いと
ウエイトがあっちに行ったりこっちに行ったりしてしまうが、
バランスが良いとあるべき方向に真っ直ぐ進みやすい、ということかなと直感的には理解している
536デフォルトの名無しさん (ワッチョイ 8d01-U1YL [122.255.141.199])
2022/05/10(火) 18:51:37.71ID:gcxSlYEt0 ・日立、週休3日で給与維持 生産性向上へ働き方改革 時間から成果へ転換
・日立、最低勤務時間を撤廃 「週休3日」も可能に
・2022年の新入社員、79.8%がテレワーク オフィスの必要性は?
・日立、富士通、NEC…「ジョブ型雇用」を大企業が続々導入する理由
・日立やNECが導入へ 「週休3日」は人材獲得の切り札
・リクルートグループ、週休「約3日」に。4月から年間休日を145日に増加へ
・カルビー/国内社員3900人を対象に副業解禁
・日立、最低勤務時間を撤廃 「週休3日」も可能に
・2022年の新入社員、79.8%がテレワーク オフィスの必要性は?
・日立、富士通、NEC…「ジョブ型雇用」を大企業が続々導入する理由
・日立やNECが導入へ 「週休3日」は人材獲得の切り札
・リクルートグループ、週休「約3日」に。4月から年間休日を145日に増加へ
・カルビー/国内社員3900人を対象に副業解禁
537デフォルトの名無しさん (アークセー Sx91-PvPk [126.151.83.114])
2022/05/10(火) 19:37:35.64ID:rAiWhgPwx >>535
確率的最急降下法だから、偏った方向に突き進むのは良くないとか、そういう次元の話だと思っていた
確率的最急降下法だから、偏った方向に突き進むのは良くないとか、そういう次元の話だと思っていた
538デフォルトの名無しさん (ワッチョイ 9d6e-xesJ [138.64.67.32])
2022/05/10(火) 19:43:41.75ID:OS09Ye+10 そういうことかと
539デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7])
2022/05/11(水) 02:35:50.86ID:n/T4USjf0 確率的勾配降下法と最急降下法が混じってないか?
最急降下法 : 全サンプルで一度に勾配を求めてウエイトを更新
確率的勾配降下法:1サンプル毎に勾配を求めてウエイトを更新
ミニバッチ勾配降下法:ミニバッチ毎に勾配を求めてウエイトを更新
んで >>524- あたりから話してるのはミニバッチ勾配降下法についてね
最急降下法 : 全サンプルで一度に勾配を求めてウエイトを更新
確率的勾配降下法:1サンプル毎に勾配を求めてウエイトを更新
ミニバッチ勾配降下法:ミニバッチ毎に勾配を求めてウエイトを更新
んで >>524- あたりから話してるのはミニバッチ勾配降下法についてね
540デフォルトの名無しさん (ワッチョイ 8d7c-maJN [122.218.227.106])
2022/05/11(水) 03:49:48.40ID:2hlm/96F0 ごめん訂正ありがと
541デフォルトの名無しさん (ワッチョイ 9d6e-xesJ [138.64.67.32])
2022/05/11(水) 06:58:42.56ID:168GVk5R0 ミニバッチも偏ってたら駄目じゃない?
542デフォルトの名無しさん (ワッチョイ 8d7c-maJN [122.218.227.106])
2022/05/11(水) 09:33:13.11ID:2hlm/96F0 駄目だよね
偏ったサンプルの気持ちいい場所に捕まってしまう
偏ったサンプルの気持ちいい場所に捕まってしまう
543デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7])
2022/05/11(水) 09:43:34.76ID:n/T4USjf0 確率的勾配降下法でもミニバッチでもサンプルの与え方が偏るのはダメ
普通は学習ツールがランダムシャッフルしてくれるから気にしなくてもだいたいうまく行くが
性質の違うデータの種類がいっぱいあるような場合はランダムに任せてるとバッチ内のサンプルが
偏りやすくなる場合がある
そのため、たいていの学習プラットフォームではバッチを生成する処理を上書きするための
手段が用意されてたりする
バッチの処理順序はランダムでok
普通は学習ツールがランダムシャッフルしてくれるから気にしなくてもだいたいうまく行くが
性質の違うデータの種類がいっぱいあるような場合はランダムに任せてるとバッチ内のサンプルが
偏りやすくなる場合がある
そのため、たいていの学習プラットフォームではバッチを生成する処理を上書きするための
手段が用意されてたりする
バッチの処理順序はランダムでok
544デフォルトの名無しさん (ワッチョイ ee10-ojei [153.131.102.129])
2022/05/11(水) 13:57:20.69ID:SfomTu1y0 ミニバッチでもバッチのデータと全データで勾配方向が違うから確率的になるけどな
バッチサイズが小さいとそのズレは比較的大きくなる
バッチサイズが小さいとそのズレは比較的大きくなる
545デフォルトの名無しさん (ワッチョイ 7d5f-oYRD [106.73.226.99])
2022/05/11(水) 15:02:21.52ID:F52sGOdk0 でもその差を理論的だったり実験的に検証してる論文はないんじゃない?
546デフォルトの名無しさん (アウアウウー Sac5-e+q+ [106.154.72.157])
2022/05/11(水) 15:06:03.86ID:xW75jOAua さすがにあるだろ。80年代にありそう
547デフォルトの名無しさん (ワッチョイ ee10-ojei [153.131.102.129])
2022/05/11(水) 16:21:53.90ID:SfomTu1y0 学習に使う全データは実際に発生するデータの部分集合である事は変わらない
全データで勾配を計算したとしても母集団の情報を使っている事にはならないから確率的勾配降下とも解釈できる
あくまでも学習データに限定して最急降下というだけ
未知データに対する汎化能力で見ると最急降下になっているかは分からない
全データで勾配を計算したとしても母集団の情報を使っている事にはならないから確率的勾配降下とも解釈できる
あくまでも学習データに限定して最急降下というだけ
未知データに対する汎化能力で見ると最急降下になっているかは分からない
548デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7])
2022/05/11(水) 20:06:44.40ID:n/T4USjf0 それはなんかズレてるような
学習データでしか学習しない(勾配を求めて降下させることもない)んだから母集団とか持ち出さなくても
確率的と最急降下の本質的な違いは、確率的に学習することによりローカルミニマムを抜け出す
チャンスがあるかどうかなのでは
そういう意味ではミニバッチ法も確率的だというのはあってると思う
学習データでしか学習しない(勾配を求めて降下させることもない)んだから母集団とか持ち出さなくても
確率的と最急降下の本質的な違いは、確率的に学習することによりローカルミニマムを抜け出す
チャンスがあるかどうかなのでは
そういう意味ではミニバッチ法も確率的だというのはあってると思う
549デフォルトの名無しさん (ワッチョイ 9d6e-xesJ [138.64.67.32])
2022/05/11(水) 20:15:05.10ID:168GVk5R0 サイコロふってサンプル選んでミニバッチ作ることが確率的なの?
550デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7])
2022/05/11(水) 20:32:09.62ID:n/T4USjf0 サンプルの選び方によって勾配が変わるので学習の方向はあっち行ったりこっち行ったりする
でもどちらかと言うと正しい方向に進む確率の方がちょっとだけ高い
そういう意味で確率的、なんだと思う
これはアニーリング問題と同じで、分子を最初は大きくランダムに動かして
(でもちょっとだけ正しい方向に進みやすくして)少しずつ動きを小さくしていくと
最も安定したところに収束する
分子の動き=温度で、温度を十分にゆっくり下げると最適解に到達することが証明されてる
だからDLでも学習率(温度と等価)の下げ方が重要なんだが最近は自動になって便利だね
でもどちらかと言うと正しい方向に進む確率の方がちょっとだけ高い
そういう意味で確率的、なんだと思う
これはアニーリング問題と同じで、分子を最初は大きくランダムに動かして
(でもちょっとだけ正しい方向に進みやすくして)少しずつ動きを小さくしていくと
最も安定したところに収束する
分子の動き=温度で、温度を十分にゆっくり下げると最適解に到達することが証明されてる
だからDLでも学習率(温度と等価)の下げ方が重要なんだが最近は自動になって便利だね
551デフォルトの名無しさん (ワッチョイ ee10-ojei [153.131.102.129])
2022/05/11(水) 20:57:45.21ID:SfomTu1y0552デフォルトの名無しさん (ワッチョイ 8510-hJAo [114.163.141.1])
2022/05/11(水) 23:37:55.47ID:cJjkDDOX0 過学習
意味: うまくいかないときの言い訳
意味: うまくいかないときの言い訳
553デフォルトの名無しさん (アウアウウー Sac5-e+q+ [106.154.69.155])
2022/05/11(水) 23:47:40.71ID:xXaj6qvMa 過学習できるってことはうまくいってるってことだよ
554デフォルトの名無しさん (テテンテンテン MM82-xesJ [193.119.144.94])
2022/05/12(木) 09:15:39.58ID:24mxIbhrM 初期の学習率てどうやって決めれば良いの? それとオプティマイザも
555デフォルトの名無しさん (テテンテンテン MM82-xesJ [193.119.144.94])
2022/05/12(木) 09:16:43.48ID:24mxIbhrM adam選んどきゃ正解なの?
556デフォルトの名無しさん (アウアウウー Sac5-e+q+ [106.154.69.155])
2022/05/12(木) 11:51:42.19ID:ssfk6Zuqa ユニット数とかすべてひっくるめて、無限にある組み合わせの中から適当に選んで試しまくってよさげなのを決めるしかないよ
autokerasみたいなの使って半自動で探すのもいいけど、制限も多いから自力(コーディング)で探すのが楽
autokerasみたいなの使って半自動で探すのもいいけど、制限も多いから自力(コーディング)で探すのが楽
557デフォルトの名無しさん (スップ Sd02-hJAo [1.75.155.91])
2022/05/12(木) 15:04:07.76ID:mMTw6/Aad 過学習なんて言葉いい加減禁句にしてほしい。
エラソぶったおっさんが学会でわかった口して過学習、過学習‥‥‥ブツブツ。、
(苦笑)
エラソぶったおっさんが学会でわかった口して過学習、過学習‥‥‥ブツブツ。、
(苦笑)
558デフォルトの名無しさん (スップ Sd02-hJAo [1.75.155.91])
2022/05/12(木) 15:07:39.54ID:mMTw6/Aad ただの造語に騙されないように‥‥‥
559デフォルトの名無しさん (ササクッテロル Sp91-YKh1 [126.234.43.89])
2022/05/12(木) 15:30:13.49ID:TPnOtntRp オーバーフィッティングならいいのか?
560デフォルトの名無しさん (JP 0Hca-Ix6I [103.163.220.94])
2022/05/12(木) 17:20:58.10ID:l5soNYRaH たとえばオセロや囲碁などのボードゲームではビットボードが使われてると思うんですが、
学習をさせるときは配列にビットを展開しないといけないんでしょうか?
それともインプットをビットボードの数値にしてもうまく学習できますか?
展開するとしたら結構な計算量とメモリ消費量になると思うのですが、現実どう処理されてるんでしょうか?
学習をさせるときは配列にビットを展開しないといけないんでしょうか?
それともインプットをビットボードの数値にしてもうまく学習できますか?
展開するとしたら結構な計算量とメモリ消費量になると思うのですが、現実どう処理されてるんでしょうか?
561デフォルトの名無しさん (アウアウウー Sac5-e+q+ [106.154.69.155])
2022/05/12(木) 17:40:20.64ID:ssfk6Zuqa bit単位で扱うことはないな。画像データのほうがはるかにメモリ食う
具体的にはゲーム処理は1マス1enum(内部的には4byteかな)でやるし、学習データは1マス1floatの割り当てでやる
オセロなら8x8マスだからfloat[64] 用意して自駒あるとこ1、敵-1、何もなしzero、入力マスク用にbool[64]用意して駒おけるとこだけtrueにして
lstmも何も使わない単純なPPOに突っ込むだけで一日で勝てないとこまでいくよ
具体的にはゲーム処理は1マス1enum(内部的には4byteかな)でやるし、学習データは1マス1floatの割り当てでやる
オセロなら8x8マスだからfloat[64] 用意して自駒あるとこ1、敵-1、何もなしzero、入力マスク用にbool[64]用意して駒おけるとこだけtrueにして
lstmも何も使わない単純なPPOに突っ込むだけで一日で勝てないとこまでいくよ
562デフォルトの名無しさん (ワッチョイ 0202-zDU0 [59.138.123.33])
2022/05/12(木) 18:07:08.93ID:XThBUtns0 配列のほとんどの部分が0なので
疎な配列、疎行列あたりのライブラリを使って
メモリを節約する
疎な配列、疎行列あたりのライブラリを使って
メモリを節約する
563デフォルトの名無しさん (テテンテンテン MM82-xesJ [193.119.144.25])
2022/05/12(木) 18:20:42.07ID:y2m3n7NiM 適当なオープンソースのやつみたら分かるんじゃね?
564デフォルトの名無しさん (ワッチョイ ee10-uM1l [153.243.53.4])
2022/05/12(木) 18:43:11.76ID:MKi5Gk5o0565デフォルトの名無しさん (エムゾネ FFa2-ZVzp [49.106.187.17])
2022/05/12(木) 19:08:36.43ID:eWCwulp9F 過学習の何が気に入らないのか
過学習は過学習だろ
過学習は過学習だろ
566デフォルトの名無しさん (アークセー Sx91-PvPk [126.196.37.22])
2022/05/12(木) 19:13:03.75ID:SeeVGpfXx567デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6])
2022/05/12(木) 19:17:06.59ID:QHBqVOhI0 過学習と学習不足(未学習)は機械学習の基本的な考え方だねー。varianceとbiasと考えてもいいよー
ところがディープラーニングの世界では、過学習の先に突然精度が上がる現象が確認されてるよー
不思議だねー
ところがディープラーニングの世界では、過学習の先に突然精度が上がる現象が確認されてるよー
不思議だねー
568デフォルトの名無しさん (テテンテンテン MM82-xesJ [193.119.159.12])
2022/05/12(木) 19:26:27.74ID:awPT4EK2M >>567
この現象、体験したことないんだけどMNISTあたりでも観測できるの?
この現象、体験したことないんだけどMNISTあたりでも観測できるの?
569デフォルトの名無しさん (アークセー Sx91-PvPk [126.196.37.22])
2022/05/12(木) 19:30:00.86ID:SeeVGpfXx >>567
適当にぐぐったけどこれのこと?
過学習後も精度向上!?【論文】Deep Double Descent: Where Bigger Models and More Data Hurt の解説
https://www.acceluniverse.com/blog/developers/2020/01/deep-double-descent-where-bigger-models-and-more-data-hurt.html
ニワカに信じがたいので、ちょっと読んでみる
適当にぐぐったけどこれのこと?
過学習後も精度向上!?【論文】Deep Double Descent: Where Bigger Models and More Data Hurt の解説
https://www.acceluniverse.com/blog/developers/2020/01/deep-double-descent-where-bigger-models-and-more-data-hurt.html
ニワカに信じがたいので、ちょっと読んでみる
570デフォルトの名無しさん (アウアウウー Sac5-ZVzp [106.146.112.241])
2022/05/12(木) 19:34:46.68ID:V9a83oNra 丸暗記だって学習は学習
人間でも暗記は必要最低限だけにして知識を効率活用できる人もいれば丸暗記したことしか理解できずちょっと応用問題出されただけで理解不能に陥る人もいる
人間でも暗記は必要最低限だけにして知識を効率活用できる人もいれば丸暗記したことしか理解できずちょっと応用問題出されただけで理解不能に陥る人もいる
571デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6])
2022/05/12(木) 19:35:33.93ID:QHBqVOhI0 Double Descentだねー
大規模言語モデルだと前提になってるよー
大規模言語モデルだと前提になってるよー
572デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6])
2022/05/12(木) 19:38:29.11ID:QHBqVOhI0 とはいえ過学習を是とすると、それはただの全文検索なので
Double Descent, Overparameterizationは既知の概念ではない何かなんだろうねー
Double Descent, Overparameterizationは既知の概念ではない何かなんだろうねー
573デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6])
2022/05/12(木) 19:41:34.38ID:QHBqVOhI0 >>568
トイプロブレムで実証したことはないけど、実務で大きめのモデルを扱っている人は、みんなそれっぽい現象を観測した経験があると思うよー
とはいえ、概念を先に知らないと偶然としか思わないんだけどねー
トイプロブレムで実証したことはないけど、実務で大きめのモデルを扱っている人は、みんなそれっぽい現象を観測した経験があると思うよー
とはいえ、概念を先に知らないと偶然としか思わないんだけどねー
574デフォルトの名無しさん (ワッチョイ 9d6e-xesJ [138.64.67.32])
2022/05/12(木) 20:23:08.75ID:gGBQiRDa0 >>573
ふうん
ふうん
575デフォルトの名無しさん (テテンテンテン MM82-qw0W [193.119.164.69])
2022/05/12(木) 22:36:43.51ID:m2THFYn4M >>567
局所解って話ではないの?
局所解って話ではないの?
576デフォルトの名無しさん (ワッチョイ 0202-zDU0 [59.138.123.33])
2022/05/12(木) 23:38:12.85ID:XThBUtns0 事例が多くなると
結局あらゆる事例が網羅されるという意味じゃね?
結局あらゆる事例が網羅されるという意味じゃね?
577デフォルトの名無しさん (ワッチョイ 09e6-/zFp [14.3.19.207])
2022/05/12(木) 23:53:34.27ID:CoPLz2Vj0 この分野まともな理屈なんて何一つねーんだし
深く考えても無駄よ
他の工学分野とかもっと理論でガチガチに固めてるしな
深く考えても無駄よ
他の工学分野とかもっと理論でガチガチに固めてるしな
578デフォルトの名無しさん (ワッチョイ 9d6e-xesJ [138.64.67.32])
2022/05/13(金) 12:37:27.02ID:AsvYLwfP0 日本の研究者って理論も弱いよね
579デフォルトの名無しさん (ワッチョイ 7d5f-oYRD [106.73.226.99])
2022/05/13(金) 15:43:58.39ID:nFnwnz+O0 弱いというか、現実のDNNの収束過程とは離れた、あまりに理論寄りすぎることばっかりやってる。
580デフォルトの名無しさん (ワッチョイ 0202-zDU0 [59.138.123.33])
2022/05/13(金) 16:49:05.19ID:NE9V9IQG0 現実の結果の説明は多分この先もできないよね
581デフォルトの名無しさん (ワッチョイ 0255-/AKQ [59.147.205.222])
2022/05/13(金) 16:53:12.85ID:N8AZ2EKD0 岡谷さんってどうですか?
582デフォルトの名無しさん (ワッチョイ ee10-ojei [153.131.102.129])
2022/05/13(金) 20:05:28.18ID:UTtAr0xn0 >>577
あなたが知らないだけなんじゃないの?
あなたが知らないだけなんじゃないの?
583デフォルトの名無しさん (ワッチョイ ee10-ojei [153.131.102.129])
2022/05/13(金) 20:07:45.53ID:UTtAr0xn0 学習は教師信号との誤差とかで決まる評価関数の値を小さくする結合とかのパラメータを見つける問題に帰着するんだろうな
大まかに言えば組合せ最適化問題
大まかに言えば組合せ最適化問題
584デフォルトの名無しさん (アウアウウー Sac5-e+q+ [106.154.69.3])
2022/05/13(金) 21:14:31.29ID:btyzcX5fa 問題にしてるレイヤーが違うんだろ
パラメーターだなんだってのは理論だらけだけど
そのデータからどうして予測できるんだ(どんな特徴が使われてるんだ)とか、このモデルよりもあっちのモデルのほうがうまくいく理由は?みたいなとこはこじつけだらけ
パラメーターだなんだってのは理論だらけだけど
そのデータからどうして予測できるんだ(どんな特徴が使われてるんだ)とか、このモデルよりもあっちのモデルのほうがうまくいく理由は?みたいなとこはこじつけだらけ
585デフォルトの名無しさん (ワッチョイ a45f-eDpJ [106.73.226.99])
2022/05/14(土) 00:04:16.45ID:0dDHcT1o0 理論がないってのは言い過ぎだけど、まあまだわからんことは多いのは事実。
ある程度わかってもパラメータチューニングについては機械的に探すって話はずっと続きそうではある。
ある程度わかってもパラメータチューニングについては機械的に探すって話はずっと続きそうではある。
586デフォルトの名無しさん (アウアウウー Sa15-IsGS [106.154.4.241])
2022/05/14(土) 06:50:37.09ID:O8qOoha4a587デフォルトの名無しさん (スップ Sdde-qOGV [1.75.152.73])
2022/05/14(土) 16:15:39.79ID:tMZG04rkd ただのフィッティング技法と考えてよい
教師なし学習は逆フィッティングだが
教師なし学習は逆フィッティングだが
588デフォルトの名無しさん (テテンテンテン MMb4-pOvi [133.106.57.5])
2022/05/14(土) 17:29:08.39ID:4saW8Bc8M 別の手法として発表されたものが
理論的には同じことをしてるという事もある
理論的には同じことをしてるという事もある
589デフォルトの名無しさん (スップ Sdde-qOGV [1.75.152.73])
2022/05/14(土) 19:16:10.33ID:tMZG04rkd ファッションでやってる輩が増えてて困る
590デフォルトの名無しさん (ワッチョイ ca10-Vod4 [153.243.53.4])
2022/05/14(土) 19:28:08.46ID:3asw//Zv0 逆フィッティングとは
591デフォルトの名無しさん (ワッチョイ 8efb-WgHi [92.203.11.83])
2022/05/14(土) 23:22:49.99ID:gU3pbgYf0 >>589
誰だって最初はにわかな存在ですし、分野としては新規参入者が多いことは喜ばしいことですよ。
誰だって最初はにわかな存在ですし、分野としては新規参入者が多いことは喜ばしいことですよ。
592デフォルトの名無しさん (ワッチョイ d610-qOGV [114.163.141.1])
2022/05/15(日) 05:04:53.83ID:RG3j7DCt0 >>590
集合と集合の分離する(最大限離す)境界を作成するという意味で用いた。多意はない
>>591
↓これ見たとき何か勘違いしてる輩のギャグかなと思った
https://youtu.be/-MCO1FOeaOI
集合と集合の分離する(最大限離す)境界を作成するという意味で用いた。多意はない
>>591
↓これ見たとき何か勘違いしてる輩のギャグかなと思った
https://youtu.be/-MCO1FOeaOI
593デフォルトの名無しさん (テテンテンテン MM9a-94oM [193.119.158.78])
2022/05/16(月) 11:59:51.09ID:oRnyDlKgM cnnで特徴抽出するときの中間層てどこでもいいの?
convの直後がいいの?それとも活性化通した後のがいいの?
convの直後がいいの?それとも活性化通した後のがいいの?
594デフォルトの名無しさん (ワッチョイ ca10-biPL [153.243.43.6])
2022/05/16(月) 12:08:39.95ID:ucnn58bs0595デフォルトの名無しさん (テテンテンテン MM9a-94oM [193.119.152.63])
2022/05/16(月) 15:03:25.33ID:04bK1tejM596デフォルトの名無しさん (ワントンキン MMda-94oM [153.159.67.46])
2022/05/18(水) 13:41:31.07ID:cOuIvIQpM 顔認識の肌色差別問題て、グレースケールでやれば良くない?
597デフォルトの名無しさん (ワッチョイ 8efb-WgHi [92.203.11.83])
2022/05/18(水) 16:39:07.89ID:SlOJ3xLY0 >>596
余計強調されるんじゃないですかね。
余計強調されるんじゃないですかね。
598デフォルトの名無しさん (JP 0Hc6-z4Vy [103.163.220.100])
2022/05/18(水) 16:45:09.98ID:1kgDoT/jH monkeyとか出てくるの?
599デフォルトの名無しさん (ワッチョイ ca10-Kq3f [153.243.43.6])
2022/05/18(水) 17:48:14.11ID:tbtjI4Jo0600デフォルトの名無しさん (ワントンキン MMda-94oM [153.159.67.46])
2022/05/18(水) 17:51:38.15ID:cOuIvIQpM コントラスト補正したくらいじゃ改善されないかな
601デフォルトの名無しさん (ワッチョイ ca10-Vod4 [153.243.53.4])
2022/05/18(水) 19:44:51.20ID:z8mk94f90 >>596
白人と黒人の写真グレースケールにしてみ?
白人と黒人の写真グレースケールにしてみ?
602デフォルトの名無しさん (ワッチョイ ccb5-yvGd [153.130.102.110])
2022/05/18(水) 22:33:01.65ID:9twh3XQB0 ゴリラと認識されてしまった黒人画像見たが・・・
あれは仕方ないね、俺らの目でもそう見えかねん
な、黄猿ども?
あれは仕方ないね、俺らの目でもそう見えかねん
な、黄猿ども?
603デフォルトの名無しさん (ワッチョイ 8efb-WgHi [92.203.11.83])
2022/05/18(水) 23:29:26.78ID:SlOJ3xLY0 >>602
老眼では?
老眼では?
604デフォルトの名無しさん (ワッチョイ 9d7c-yvGd [122.218.227.106])
2022/05/19(木) 06:52:29.21ID:6liSYt1H0605デフォルトの名無しさん (ワントンキン MMda-94oM [153.159.67.46])
2022/05/19(木) 16:52:03.32ID:edTczYU6M グレーススケール後に適当なフィルタかけてエッジ画像にしてからでも駄目?⤵
606デフォルトの名無しさん (ワッチョイ ca10-biPL [153.243.43.6])
2022/05/19(木) 18:30:15.97ID:zHi3KVOI0 >>605
CNNはエッジ検出も行っているといえるねー
それでも誤検出するなら、データの問題を先に考えるのが今のトレンドだねー
本質的に区別ができないという可能性もあるけど、それなら人が違和感持たないので、なんか不測があるんだろうねー
CNNはエッジ検出も行っているといえるねー
それでも誤検出するなら、データの問題を先に考えるのが今のトレンドだねー
本質的に区別ができないという可能性もあるけど、それなら人が違和感持たないので、なんか不測があるんだろうねー
607デフォルトの名無しさん (ワッチョイ ca10-Vod4 [153.243.53.4])
2022/05/19(木) 19:46:45.99ID:MWEO0MI00 >>605
骨格や髪型から人種判別して差別する可能性は残る
骨格や髪型から人種判別して差別する可能性は残る
608デフォルトの名無しさん (ワッチョイ 8efb-WgHi [92.203.11.83])
2022/05/19(木) 21:36:05.49ID:0P/kzYsp0 そもそも元レスの顔認識の肌色差別問題が具体的に何を指しているのか分からないですからね。
609デフォルトの名無しさん (アウアウウー Sa6b-4Iep [106.146.31.235])
2022/05/22(日) 17:55:57.69ID:iVOTdrTva 未知語しかないコーパスに対して辞書無しで単語のわかち書きをやりたいんだけど今のスタンダードな手法はなんですか?
以下見つけたものですが他にオススメあったら教えて下さい
https://github.com/shimo-lab/sembei
行列分解による単語分散表現、出現頻度が低いワードは単語として認識されないのでわかち書きはできない
https://github.com/musyoku/python-npylm
良さげだけどwindowsで環境構築できなかった
以下見つけたものですが他にオススメあったら教えて下さい
https://github.com/shimo-lab/sembei
行列分解による単語分散表現、出現頻度が低いワードは単語として認識されないのでわかち書きはできない
https://github.com/musyoku/python-npylm
良さげだけどwindowsで環境構築できなかった
610デフォルトの名無しさん (ワッチョイ e610-kFU8 [153.243.43.6])
2022/05/22(日) 18:45:40.92ID:rU+wfvkz0611デフォルトの名無しさん (ワッチョイ 1b6e-eouP [138.64.67.32])
2022/05/22(日) 21:01:10.93ID:pMmiMThE0 モノリンガルコーパスがあるならベイズ教師無しで単語分割するやつがあったな
612デフォルトの名無しさん (ワッチョイ 8202-XGbo [27.94.46.88])
2022/05/24(火) 12:14:32.31ID:I+NBTrD50 モンテカルロ木探索をしてくれるPythonのライブラリはありますか?
613デフォルトの名無しさん (ワッチョイ 1b6e-eouP [138.64.67.32])
2022/05/24(火) 12:23:50.92ID:+v3XfkcC0 ある
614デフォルトの名無しさん (ラクッペペ MMee-HdLg [133.106.78.140])
2022/05/24(火) 16:34:45.13ID:eTu9tEN2M 日経プログラム買え
615デフォルトの名無しさん (オイコラミネオ MMdb-guLU [122.100.29.87])
2022/05/24(火) 17:11:53.62ID:9QRmEXzLM 自分でデータセット作るの面倒くさそうだね
適正数もわからんし
ネットなりカメラなりで揃えなきゃいけないし
適正数もわからんし
ネットなりカメラなりで揃えなきゃいけないし
616デフォルトの名無しさん (ワッチョイ 1b6e-eouP [138.64.67.32])
2022/05/24(火) 18:11:03.03ID:+v3XfkcC0 なんの話?
617デフォルトの名無しさん (JP 0H1a-sqsE [103.163.220.65])
2022/05/24(火) 18:47:38.96ID:FOAlso0MH 画像分類でもやりたそうな感じだけど具体的需要がなさそう
618615 (ワッチョイ a67e-guLU [121.93.95.95])
2022/05/24(火) 19:04:18.42ID:RN1pZpwH0■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 「1800万円の売り上げゼロに…」中国インバウンドに特化の宿の今 [蚤の市★]
- 「中国人の訪日熱は冷めた」 人気旅行先から日本外れる 14日で自粛呼びかけ1カ月 [蚤の市★]
- クリスマスの「予定なし」54% [少考さん★]
- 最新版Z級クソ映画ランキングが決定! [牛丼★]
- 日銀0.75%に利上げへ、30年ぶりの水準に 19日金融政策決定会合 [蚤の市★]
- 【話題】好きな鍋は?! 「寄せ鍋」「キムチ鍋」「水炊き」「もつ鍋」「豆乳鍋」「ちゃんこ鍋」「ごま坦々鍋」「トマト鍋」 [ひぃぃ★]
- 【実況】博衣こよりのえちえち機動戦士ガンダム逆襲のシャア🧪★2
- 【実況】博衣こよりのえちえち機動戦士ガンダム逆襲のシャア🧪★3
- ネトウヨ「日本産のキムチは食べるけど!?😤」⇦すまんこれなんだったの?日本産キムチとか甘ったるくて不味いだろ… [271912485]
- 立憲・野田代表、内閣不信任案は提出しないと表明「高市内閣は頑張ってる。まだ発足2ヶ月だし時期尚早」と半分激励 [597533159]
- 愛国者「釘を使わない日本独自の伝統工法スゴイ!」X民「それ中国起源ですよ」→批判殺到 [834922174]
- 茶ぁしばこうや···
