【統計分析】機械学習・データマイニング29

■ このスレッドは過去ログ倉庫に格納されています
2020/08/20(木) 09:16:43.41ID:Av1Lrhjm0
!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
↑すれたてる毎に1行ずつ減るので、減ってたら3回に増やしてたてること。

機械学習とデータマイニングについて語れ若人

*機械学習に意識・知能は存在しません。
  人の意識に触れたい方はスレ違いです。

■前スレ
【統計分析】機械学習・データマイニング28
https://mevius.5ch.net/test/read.cgi/tech/1588293154/
-EOF-
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured
2020/08/25(火) 10:23:40.49ID:8u+D4XfyM
>>25
声・・
2020/08/25(火) 10:50:06.93ID:Rbv5shkjM
気持ち悪いから低評価押してきた
2020/08/25(火) 11:33:17.94ID:zwnCjvrH0
めっちゃわかりやすいやん
2020/08/25(火) 13:22:18.28ID:Rbv5shkjM
ホップフィールドネットワークって一つの行列に複数の画像を埋め込む技術なの?
2020/08/25(火) 13:23:52.90ID:hGM+N7Uu0
巡回サラリーマン問題を解くためのもの
2020/08/26(水) 21:40:51.73ID:liF72IQD0
カメラの顔検出して年齢予測するのを見たんだけど、あれは顔画像を検出するためのモデルと顔画像から年齢を推定するモデルの2つが必要になるの?
顔画像に対して年齢をラベル付けしたデータ食わせてもそれだけじゃ検出部分ができねぇよなと思ったんだけど合ってる?
2020/08/26(水) 22:09:49.75ID:7e5gjmNp0
そだね
33デフォルトの名無しさん (ワッチョイ f5da-ifKp [114.182.59.118])
垢版 |
2020/08/29(土) 10:13:54.41ID:iAvqS7a70
初心者の初歩的な質問で申し訳ないんだけど
seq2seqで使うコーパスの、出現数の少ない単語をUNKに変えたものもどう扱えばいいのかわからない
UNKが含まれている文は学習しないほうがいいのか
それともUNKの部分だけone-hot表現するときにすべての次元を0にすればいいのか
それともUNKの部分を抜かして、次の単語をone-hot表現すればいいのか
誰か教えてください
2020/08/29(土) 10:30:49.38ID:ThpsBngKM
unkの扱いも訓練させる必要がある
idを割り当てた上で訓練すればよい
35デフォルトの名無しさん (ワッチョイ 9d01-Xbxe [60.86.178.93])
垢版 |
2020/08/29(土) 17:32:36.48ID:SVE449ru0
UNK を う●こ と 脳内よみあげしてしまった・・・
 λ... < ちょっとスイカ食ってくる
36デフォルトの名無しさん (ワイーワ2 FF93-yRqa [103.5.140.145])
垢版 |
2020/08/29(土) 18:19:55.59ID:WLN6D8UQF
バグ

ハゲ
に観える
37デフォルトの名無しさん (ワッチョイ 9d01-Xbxe [60.86.178.93])
垢版 |
2020/08/29(土) 18:24:28.66ID:SVE449ru0
>>36
(ヾノ・x・`)
38デフォルトの名無しさん (ワッチョイ e3ad-rTX0 [125.12.149.140])
垢版 |
2020/08/29(土) 21:06:37.41ID:apIwx4wu0
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^

あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!

クソチョンw

Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw

日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw
2020/08/30(日) 00:21:49.17ID:HNjVBgM5M
>>35
もうソレでしか読めなくなってしもたor?
40デフォルトの名無しさん (ワッチョイ 9d01-Xbxe [60.86.178.93])
垢版 |
2020/08/30(日) 03:14:50.04ID:tm04WkOo0
>>39
そこまで重症ではないようだ。
2020/08/30(日) 10:06:31.17ID:qa4YyGTj0
ニューラルネットワークって統計なの?
2020/08/30(日) 10:13:19.05ID:d7Xz7Gw0a
中身を理解すれば統計学の一部になるが、理解せずただ使うだけなら統計とか関係ない単純作業
2020/08/30(日) 14:40:07.23ID:EHjqqdq40
釣れないネタ
2020/08/30(日) 17:36:55.84ID:fqOHDpO5d
ニューラルネットワークの分類は関数解析では?
2020/08/30(日) 21:24:42.51ID:Ro8JlQIU0
アホ参上
2020/08/30(日) 22:17:31.07ID:fUPXO8OJ0
機械学習の公平性ってどういう問題設定なの…
予測と決定(予測結果をどう使うか)は別問題だと思うんだけど。
2020/08/30(日) 22:20:31.00ID:Ro8JlQIU0
AIが4chで学習して暴走する問題設定
2020/08/30(日) 23:04:23.27ID:qa4YyGTj0
このスレもaiが生成してる
2020/08/31(月) 00:31:26.76ID:kLZFTZC40
機械学習によって、女性をある仕事に採用しない方がいいとか、黒人はゴリラににてるとかの結果がでるとまずいそうな
50デフォルトの名無しさん (アウアウウー Saa1-5Jwh [106.154.136.116])
垢版 |
2020/08/31(月) 00:40:23.30ID:TLukFCLYa
>>46
この辺読んどけ
http://www.cs.toronto.edu/~madras/presentations/fairness-ml-uaig.pdf
2020/08/31(月) 01:01:45.29ID:qTifi9+k0
>>49
ゴリラの方は学習データと予測対象の母集団が一致していないという、単なるサンプリングの失敗じゃない?
2020/08/31(月) 02:57:09.77ID:ZjNZbeyO0
ポリコレだろ
2020/08/31(月) 08:51:09.63ID:rh09MRWzM
MS のtayなるchatbot逝ってたな
2020/08/31(月) 11:51:45.74ID:fcm3kmNm0
polymer clay collectionか
2020/08/31(月) 14:33:01.05ID:qTifi9+k0
>>50
ありがとう。
発展途上でまだしっかりとした問題設定はできてないと理解しました。
2020/08/31(月) 23:58:59.03ID:/Li06f9z0
名大会話コーパス読み込んでseq2seqやってんだけどめっちゃ重い
メモリ16ギガ gtx1060ってスペック不足?
それともコードが悪い?
2020/09/01(火) 01:21:04.58ID:0wb8S5nmM
>>56
ディープラーニングで画像処理するならメモリとグラボの性能
ようするに右脳系処理だけど
自然言語文字列処理はストレージの読み書きとCPUの性能による
いわゆる左脳系処理だから
M.2やSSDとXeon phiね
2020/09/01(火) 02:03:10.61ID:XQoGkxZd0
>>57
m.2 ssdではあるけどcpuは第8世代のi5-8500を使ってる
初めて作ったaiだから普通どれだけリソース食うのかわからないけど、エポックが後半になってくるとメモリもcpuも99%に張り付く
xeonに買い替えたほうがいい?
2020/09/01(火) 20:19:08.65ID:zh+D+/I/0
>>56
seq2seqでなにやるの?
60デフォルトの名無しさん (ワッチョイ 6501-JFwp [60.86.178.93])
垢版 |
2020/09/02(水) 08:27:13.44ID:65NJoCJF0
>>58
自然言語をAIでごにょごにょーってやろうとすると
最終段階一歩前くらいが
メモリ爆食いでCPU負荷もモリモリかかるのが普通っぽいぞ。
おれさまの経験によれば。
61デフォルトの名無しさん (ブーイモ MM6b-svb1 [163.49.204.127])
垢版 |
2020/09/02(水) 08:57:32.90ID:cf3sTGi+M
朝鮮人に統計分析は無理ゲーw
2020/09/02(水) 18:06:31.19ID:xBgCxpNPM
pytorchを少しいじってみた
こんなに簡単にニューラルネットワークを定義できることに驚き
みんな自分でnn.Moduleを継承したクラスをごりごり書いてるの?
自分に出来る気がしない。。。
2020/09/02(水) 20:23:13.12ID:r7qllEy10
そこまでやってる人は少ないんじゃないかな
上位のAPI使うだけでも結構いろいろできちゃうし
俺も必要に迫られるまでは手を出す気がしない
勉強してもすぐ陳腐化しちゃうしね

しかしAttentionはもっと簡単に使えるようにならんものか
64デフォルトの名無しさん (アウアウウー Sa69-7b63 [106.154.139.237])
垢版 |
2020/09/02(水) 22:32:11.11ID:YLujANXVa
>>62
nn.Sequentialでじゅうぶん
2020/09/02(水) 22:52:02.42ID:vLXI24iz0
モデルをゴリゴリに作り込むのは趣味でやってほしい。
実務だと引継ぎ不能に…。
66デフォルトの名無しさん (ラクッペペ MM4b-I/wA [133.106.93.227])
垢版 |
2020/09/02(水) 22:55:19.06ID:Amkv9tJOM
pytorchに鞍替えすっか〜
2020/09/02(水) 23:43:57.93ID:yEUnVEXO0
仕事だろ()
2020/09/03(木) 00:33:16.06ID:nz5qMTye0
モデルをゴリゴリに作り込むことでそれに見合うリターンが得られるならいいんだけど、

・そもそも目的関数の選択が適切でない
・予測対象の母集団が定義できていない
・偏ったデータを考えもなく使っている
・簡単な特徴量を1つ追加した方が精度が改善する

だったりして、粗大ゴミが作られるのが怖くて…。
2020/09/03(木) 02:10:35.74ID:nez+JOaA0
そしてライブラリのバージョンアップで動かなくなるという罠
70デフォルトの名無しさん (ワッチョイ 9dda-yOpk [114.182.59.118])
垢版 |
2020/09/03(木) 07:58:01.68ID:qNk1tjNB0
kerasの英仏翻訳のサンプルプログラムにattentionぶちこむにはどうすればいいんだ?
2020/09/03(木) 08:32:39.06ID:2cBStg5R0
>>68
うまく作れば
複雑怪奇にならなくない?
2020/09/03(木) 10:15:35.69ID:JShKaXVVa
うまく作るってのが一番難しいんだけどな
2020/09/03(木) 10:34:00.34ID:nez+JOaA0
>>70
Attentionを使うための便利なものはKerasには用意されてないっぽい
実装してる人のコード見ると、ベクトル演算とか組み合わせてグラフ繋げて自力で作ってたりする
あまりに大変すぎるので、そのうち何かサポートが追加されるんじゃないかと期待してるが

誰か簡単な方法知ってたら教えてくれ
74デフォルトの名無しさん (ワッチョイ 9dda-yOpk [114.182.59.118])
垢版 |
2020/09/03(木) 21:01:30.17ID:qNk1tjNB0
kerasではなくpytorchのほうがいいのかな
face book嫌いだから使いたくないけど
2020/09/03(木) 21:05:35.93ID:2cBStg5R0
kerasのサンプルあるよね?
2020/09/03(木) 21:08:09.53ID:oPPXaQOW0
attentionて普通に組んだら計算コスト洒落にならなそう。
2020/09/03(木) 21:31:54.12ID:nez+JOaA0
うお、KerasにAttentionレイヤー用意されてたのか
tf.keras.layers.Attention
いつの間に
78デフォルトの名無しさん (アウアウウー Sa69-7b63 [106.154.139.120])
垢版 |
2020/09/03(木) 21:34:25.70ID:H4JjWibDa
>>74
坊主憎けりゃ、だな
お前が使ってもfacebookは1ミクロンも得しないから安心して使え
2020/09/04(金) 02:46:34.87ID:JFyn8ysD0
エロ動画のモザイク取り除くai作りたい、てかなんで誰も発売しないんだ
2020/09/04(金) 03:47:31.78ID:mDofFZHor
それはAI界最大級の難しいテーマだからな。
コンピューターには性欲がないからw
81デフォルトの名無しさん (ワッチョイ 6501-JFwp [60.86.178.93])
垢版 |
2020/09/04(金) 07:19:00.27ID:jvrr6lZ70
>>79-80の流れに朝からワロラサレターヨ(・∀・)
2020/09/04(金) 07:50:08.83ID:4FjIUW730
発想が童貞みたい
2020/09/04(金) 08:02:56.49ID:WvWinIJxM
>>79

https://i.imgur.com/Lysnw37.jpg
2020/09/04(金) 09:56:18.30ID:VQ6sIcSE0
>>79
あるよ
85デフォルトの名無しさん (JP 0H29-yOpk [202.216.106.142])
垢版 |
2020/09/04(金) 10:27:07.17ID:3vk4X+ZOH
あるにはあるけど、エロ画像だけ学習させて商品として提供してる会社がなくないか
昔の全然とれないモザイクリムーバーみたいに売れば大ヒットだとおもうんだけどなあ
2020/09/04(金) 11:29:39.09ID:lHqiid/jM
活性化関数は出力を得るためにかけるんだよね?
dropoutはどの層で有効にすればいいの? 中間層すべて?
2020/09/04(金) 12:30:33.71ID:zd548qQ8M
顔消しモザ消そうとしてちんこが生えたらどうするんだ
2020/09/04(金) 14:01:51.90ID:jvrr6lZ70
>>86
上:せやな
下:やりすぎても、やらなさすぎてもうまくいかず、さじ加減が職人芸だときいている
2020/09/04(金) 14:47:29.83ID:GIOuj/3d0
>>68
数学や統計を極めても、上2つは難しくね?
2020/09/04(金) 14:59:55.37ID:lHqiid/jM
>>88
ありがと
そっかー、うーむ🤔
91デフォルトの名無しさん (アウウィフ FF69-th+2 [106.171.75.10])
垢版 |
2020/09/04(金) 15:03:17.37ID:l2EHvy2iF
りんごちゃんとはるな愛の区別が出来ないんだけど過学習かな
2020/09/04(金) 16:54:52.03ID:QJTIc14X0
>>89
上2つが適切に設定されていないと、結論の妥当性が示せない。
2020/09/04(金) 17:16:08.49ID:Nh0NQvHOH
>>68
モデルゴリゴリ以前の問題なのでは
2020/09/04(金) 18:22:35.09ID:5pEEdWxD0
>>86
中間層すべてにかけるのが普通かな
出力層にもかける流派もあるらしいが
ドロップアウト率は入力層に近い方を高く、遠い方を低くするもんらしい
2020/09/04(金) 19:15:53.20ID:HIGqzVjC0
非線形関数を通さないと線型結合を繰り返すだけになるんじゃないか?
あと微分しても一定の値だからバックプロパゲーションも出来ないのでは?
2020/09/04(金) 19:35:31.74ID:lHqiid/jM
>>94
ヒントンの論文だと
全中間層でdropoutかけてる図がでてたんだよね

悩む🤔
2020/09/05(土) 10:16:29.80ID:Az39CCC60
GeForce RTX 3090はFP32性能が36TFLOPSか、すげーな
しかしせっかくTensorCoreが載ってるのに、これって学習には使えないのね
FP16しか対応してないからかな? 確かにFP16じゃBPがうまく進まなそうだが
性能半分でいいから、FP32対応してくれればいいのに
せっかくの汎用マトリクス演算ユニットなのにもったいない
2020/09/05(土) 11:20:16.92ID:DwFJQw5i0
個人で買えるかわからないけどこんなのもあるな
https://jpn.nec.com/hpc/sxauroratsubasa/features/index.html
2020/09/05(土) 11:36:28.67ID:ebgs5EyIM
>>97
どこでそんなマヌケな情報を手に入れたんだよ
2020/09/05(土) 11:41:53.99ID:lXaWPRh70
>>98
XEON PHIより難易度高そうだけど
THX
2020/09/05(土) 11:42:29.92ID:0NWRwchU0
それはスパコンでは?
2020/09/05(土) 12:01:56.16ID:CjkYIT6R0
>>97
ggたけどそれらしい情報がないが
2020/09/05(土) 12:12:25.16ID:0NWRwchU0
>>102
出てるよ
fp16だと71tflopsだってさ
2020/09/05(土) 12:26:15.00ID:Az39CCC60
nVidiaのTensorCoreはFP32には対応していない
いちおう、TensorflowなんかでもFP16設定にすればTensorCoreも学習に使ってくれるみたいね
もっとも試してみた人のブログとか見てるとやっぱFP16じゃ精度が悲惨なことになるらしい
ttps://qiita.com/kuroyagi/items/e70c55cbc88fc0ed0220
そういう意味じゃやっぱ推論専用という捉え方でいいんじゃないかな
71Tflopsとか夢があるけどなあ
2020/09/05(土) 12:45:27.03ID:Az39CCC60
× nVidiaのTensorCoreはFP32には対応していない
〇 GTX/RTXのTensorCoreはFP32には対応していない

A100とかだとFP32/64も対応してる。学習アクセラレータなんだからそりゃそうだ
グラボに載ってるTensorCoreは対応してなくて推論専用って話ね
2020/09/05(土) 12:47:02.54ID:0NWRwchU0
そうそう
107デフォルトの名無しさん (ワッチョイ 0502-biH0 [118.154.96.7])
垢版 |
2020/09/05(土) 13:09:00.94ID:Az39CCC60
RTX 30シリーズはSSDから直接グラフィックデータを読み込めるらしいが
たぶんDLの学習データ転送にも使えるよね
flopsもメモリ帯域も上がってるしDL用途にも別次元の速さが実感できそうだ
2020/09/05(土) 15:27:22.54ID:71ZWev/Z0
>>103
例えばどれ?
2020/09/05(土) 15:57:37.62ID:Az39CCC60
>>108
103じゃないが、↓によると238Tensor-TFLOPSとなってるな
https://pc.watch.impress.co.jp/docs/news/1274381.html
Tensor-TFLOPSってのがよくわからんがFP16の性能かな?

FP16までしか対応してないソースは↓
https://www.nvidia.com/ja-jp/data-center/tensor-cores/
「サポートされている Tensor コア精度」に書いてある
Turingまでしか記載がないが、AmpereもFP32に対応したなんて発表はないし、
推論専用という位置づけは変わらないので一緒だろう
2020/09/05(土) 16:04:23.39ID:71ZWev/Z0
>>109
ありがとん
2020/09/05(土) 16:33:54.61ID:Az39CCC60
Tensor-TFlopsについて自己レス
Tflopsは普通ベクトル演算性能を指すが、TensorCoreは固定サイズのマトリクス演算なので
こういう書き方をしてるらしい
ピーク性能は238Tflopsなんだろうけど(FP16)、計算粒度が大きいんでよほどタスクが都合のいい
サイズでないと無駄が大きくなってしまう、と。
2020/09/05(土) 16:37:01.69ID:lXaWPRh70
普通に個人が使うならスリッパがベストかのう
2020/09/05(土) 17:09:43.08ID:Az39CCC60
17万円のThreadripper 3960Xで5Tflops
11万円のRTX 3080で30Tflops

DL専用ならやっぱRTXでは
まあCPUの汎用性も捨てがたいけど
昔よりCPUの並列化が進んで差が縮まってるから悩むな
2020/09/05(土) 18:13:07.70ID:Az39CCC60
[RTX3090]
CUDA Core : 35.7Tflops
TensorCore : 285Tflops
RT Core : 69Tflops

これだけポテンシャルがあるのにDLで使えるのはCUDAの35.7Tflopsだけ
なんか虚しくなってくるな
ゲーム用に売れてるおかげで安く買えるわけだから仕方ないと思わんといかんのか
2020/09/05(土) 22:07:46.07ID:lXaWPRh70
THX
3960Xかな
116デフォルトの名無しさん (ワッチョイ 9dda-yOpk [114.182.59.118])
垢版 |
2020/09/05(土) 23:55:05.96ID:ySUioB0H0
seq2seqのembeddingレイヤーに事前学習させたword2vecの重みを用いるとき、デコーダの文章を生成する合図につかう<EOS>の取り扱いはどうすればいいんだ
word2vecにEOSを学習させてベクトル化しなきゃいけないんだけど、学習データの最後の行に適当に付け足しとけばいいのか?
それとも学習データの行末すべてにEOSを付け足せばいいのか
2020/09/06(日) 02:41:40.34ID:6+iElI6k0
word2vecをembeddingレイヤにぶっこんだけど、リソース不足でバッチ数を下げざる負えなくなった
ヒカキンの持ってる1tbメモリmacが憎い
2020/09/06(日) 07:49:06.02ID:28nY3XQR0
>>116
「word2vec 追加 学習」で検索してみるとしあわせに

>>117
あいつそんなものもってるのか!

そうそう
自然言語の機械学習って
なんかしらんが(?)最後の段階あたりでくっそメモリ食う
2020/09/06(日) 08:02:00.79ID:fnIXCpSw0
gpu用意すればいいじゃん
120デフォルトの名無しさん (ラクッペペ MM4b-I/wA [133.106.90.74])
垢版 |
2020/09/06(日) 08:27:37.29ID:M4KtJHw+M
fasttextってゴミなの?
2020/09/06(日) 09:09:53.49ID:fnIXCpSw0
ごみじゃないよ(笑)
122デフォルトの名無しさん (ワッチョイ 23ad-svb1 [125.12.149.140])
垢版 |
2020/09/06(日) 10:20:49.37ID:y7ovSoOJ0
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^

あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!

クソチョンw

Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw

日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw
2020/09/06(日) 12:07:37.08ID:4rkiTQ6J0
自宅でGPU回し続けたら電気代がかかりそうやね…
2020/09/06(日) 12:15:42.57ID:v5JhsKrg0
>>104 AI ではFP16 じゃ使い物にならないから、bfloat16 というフォーマットが出て来た。

bfloat16 形式は、符号ビットが 1 つ、指数ビットが 8 つ、仮数ビットが 7 つ、暗黙の仮数ビットが 1 つの [1:8:7] の形式です。これに対し、標準の 16 ビット浮動小数(fp16)形式は [1:5:10] です。
2020/09/06(日) 12:19:11.43ID:28nY3XQR0
>>119
入力がおおおおおいと何をどうやっても最終段階でメモリくっそ食うのだが
gpuで解決できるのんけ?
だとしたら大発見w

>>123
どこでやっても電気代は誰かが払っている
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況