【統計分析】機械学習・データマイニング30

■ このスレッドは過去ログ倉庫に格納されています
2021/01/01(金) 09:10:55.46ID:a+OQlEaa0
!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
↑すれたてる毎に1つずつ減るので、減ってたら3回に増やしてたてること。

機械学習とデータマイニングについて語れ若人

*機械学習に意識・知能は存在しません。
  人の意識に触れたい方はスレ違いです。

■前スレ
【統計分析】機械学習・データマイニング29
https://mevius.5ch.net/test/read.cgi/tech/1597882603/
-EOF-
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured
2021/02/18(木) 22:29:56.69ID:1dZfY7QU0
>>241
darknetにreservoirネットワークが実装されてんの?
2021/02/19(金) 06:33:12.28ID:DXgE0kf50
その手の質問はお母さんにねw
2021/02/19(金) 06:58:08.79ID:8xulia+A0
>>243
居ないから聞けない
教えてよ
2021/02/19(金) 10:24:28.90ID:XtfTxY2q0
>>244
担当のケースワーカーさんにきいてね
2021/02/19(金) 11:29:56.26ID:8xulia+A0
>>245

どういう意味?
2021/02/19(金) 11:52:53.18ID:Kx6yVjTor
yolact

物凄いな
でもgpuメモリ食いまくり
マルチGPU推奨
2021/02/19(金) 12:08:49.50ID:HA2qNnMqM
yolact++じゃなくてyalact?
環境作ってみようかな
249デフォルトの名無しさん (ワッチョイ bff0-oPCN [115.65.81.49])
垢版 |
2021/02/20(土) 10:22:15.82ID:UP4AX1RG0
すみません, 初歩的な質問なのですがベイズ的にコインの表=1, 裏=0の予測を考えた時にそれまでの観測データ集合がDとして与えられていたら加法定理, 乗法定理より
p(x=1|D)=\int_0^1{p(x=1|μ)p(μ|D)dμ}
となるというのがわかりません.
加法定理よりμの周辺化がだせて, 乗法定理より
p(x=1, μ|D)=p(x=1|μ, D)p(μ|D)
まではわかるのですが,
p(x=1|μ, D)=p(x=1|μ)
となるのがわかりません。
どなたかご教授願えますと幸いです
250デフォルトの名無しさん (ワッチョイ ef89-Dcdc [39.111.228.181])
垢版 |
2021/02/20(土) 10:42:49.47ID:wirHviZp0
分かる人いません
2021/02/20(土) 11:18:01.74ID:+2PtxTzjM
ナイーヴベイズぐらいしか判らん。
勉強して教示して下さいませ
2021/02/20(土) 11:35:30.13ID:kELZtQLP0
>>249
乗法定理
253デフォルトの名無しさん (ワッチョイ bff0-oPCN [115.65.81.49])
垢版 |
2021/02/20(土) 11:46:59.95ID:UP4AX1RG0
>>252
p(x=1|μ, D)に対して乗法定理を使っても
p(x=1|μ, D)=p(x=1|μ)
にならない気がします、
というよりは乗法定理を使ってこの式を出したのでもう一度使うと元の式に戻ってしまうような
254デフォルトの名無しさん (ワッチョイ ef89-Dcdc [39.111.228.181])
垢版 |
2021/02/20(土) 11:59:23.71ID:wirHviZp0
>>251
いくら払える?
255デフォルトの名無しさん (ワッチョイ bff0-oPCN [115.65.81.49])
垢版 |
2021/02/20(土) 12:57:40.22ID:UP4AX1RG0
>>249
自己解決しました、条件付独立により消せたようです、勉強不足でお騒がせいたしましたm(_ _"m)
2021/02/20(土) 13:18:45.11ID:+2PtxTzjM
>>254
Iwon
257デフォルトの名無しさん (ワッチョイ ef89-Dcdc [39.111.228.181])
垢版 |
2021/02/20(土) 14:32:59.23ID:wirHviZp0
>>256
哀合
2021/02/20(土) 16:40:01.62ID:+W//x0Gh0
数学の質問なんて。。。
プログラム板も進歩したな
2021/02/22(月) 20:24:09.55ID:v/wSf64xM
機械学習の予測と大きく乖離したデータが出た場合、なおかつ乖離したデータが重きを置く特徴量が同じである事が多い場合、いっそ省いた方がよかったりする?
過学習されすぎてるだけなのかな
2021/02/22(月) 20:41:07.35ID:VHZlMFds0
わかんない
>>259
261デフォルトの名無しさん (ワッチョイ ef89-Dcdc [39.111.228.181])
垢版 |
2021/02/22(月) 20:56:06.01ID:cP93aI+80
俺もわかんねーや
2021/02/22(月) 21:09:49.10ID:B18d8Bwp0
>>259
具体的にはどんなデータなの?
2021/02/22(月) 21:25:34.02ID:6SeUKgvV0
棄却検定の話と混同?
2021/02/22(月) 21:31:40.72ID:VHZlMFds0
自動運転レベル4がドイツで実用化だってさ
http://blog.livedoor.jp/rbkyn844/archives/9767360.html
265デフォルトの名無しさん (ワッチョイ ef89-Dcdc [39.111.228.181])
垢版 |
2021/02/22(月) 21:49:14.79ID:cP93aI+80
ドイツは規格に命かけてるからね
2021/02/22(月) 22:13:41.97ID:Pda7ycdEa
>>259
直感的に今の機械学習法ではうまくいかない予感
2021/02/22(月) 23:35:19.80ID:WGVqAKhMM
>>262
競馬です
年齢高い馬が実力や実際のオッズより過小評価されとる。。
2021/02/23(火) 03:17:45.85ID:NFY8I/xt0
年齢を連続値で入れるだけじゃなくていろいろ試してもダメ?
ビニング、若いor not、老馬or not、適齢期or notなど
2021/02/23(火) 06:39:19.44ID:7MS8v9aq0
>>268
実験の詳細が分からんから助言のしようがない
270デフォルトの名無しさん (ブーイモ MM57-Dcdc [202.214.231.100])
垢版 |
2021/02/23(火) 08:51:38.71ID:NUvCbrOsM
>>264
アイスバーンと地吹雪ホワイトアウトに対応できるの?
271デフォルトの名無しさん (ワッチョイ 5363-8wBp [118.6.123.234])
垢版 |
2021/02/23(火) 10:01:22.84ID:WBK5Nsiy0
>>267
回帰か分類かわからんけど、不均衡データとかそういう話であるならweight付けてみたら? 基本的にはダウンサンプリングの方が効果あると思うけど、何事もやってみないとわからん
2021/02/24(水) 07:45:41.23ID:ZM5I/FKL0
>>270
無理
そんな例外は放置
2021/02/24(水) 07:59:21.26ID:MGSDIXGva
少ないながら今後も確実に発生する事象を勝手に例外扱いして無視するなどという都合のいいことをするから
高精度を謳うのに実用時にまともな結果を出さないモデルで溢れることとなるんだよ
274デフォルトの名無しさん (ブーイモ MM57-Dcdc [202.214.167.99])
垢版 |
2021/02/24(水) 08:53:20.56ID:BstpO7i2M
>>272
だったら使えんな
今でも運転下手くそなレベルでも走れてるんだ
相当下手くそなやつだけが時々事故る

そんなレベルでは普通の道でも危なっかしい
2021/02/24(水) 14:04:36.50ID:Bvgf08710
バッチ正規化とバッチ正則化って用語が違うだけで同じ意味?
276デフォルトの名無しさん (ワッチョイ 5363-8wBp [118.6.123.234])
垢版 |
2021/02/24(水) 14:47:33.75ID:rDb27bYS0
>>275
Batch Normalizationのことだと思うので、訳し方が違うだけじゃないかなぁ
2021/02/24(水) 15:19:24.42ID:KkK7PqtG0
NormalizationとRegularizationは別もんでは?
278デフォルトの名無しさん (ワッチョイ 5363-8wBp [118.6.123.234])
垢版 |
2021/02/24(水) 15:29:11.54ID:rDb27bYS0
>>277
それだと標準化と正則化と訳すのが多いかなと思う。あとBatch Regularizationってのは聞いたことがないような
279デフォルトの名無しさん (ワッチョイ cf10-Rptd [153.243.53.4])
垢版 |
2021/02/24(水) 17:07:10.41ID:aiTBro5g0
>>278
標準化はStandardizationじゃね?
正規化は Normalization
280デフォルトの名無しさん (ワッチョイ 5363-Cp5d [118.6.123.234])
垢版 |
2021/02/24(水) 17:26:18.69ID:rDb27bYS0
>>279
あー、たしかに
281デフォルトの名無しさん (ワッチョイ 3301-pQAD [126.140.142.39])
垢版 |
2021/02/24(水) 21:15:40.48ID:/ijFpzJL0
あわしろ氏は文脈に応じて訳し分けてると言ってたな。
2021/02/25(木) 01:45:57.34ID:nGiGWcBPr
正則は人名と紛らわしいからな。瀧正則
2021/02/25(木) 17:36:46.39ID:1tdXZ2Q60
正規表現 regular expression
正則空間 regular space
正規空間
2021/02/25(木) 17:37:54.78ID:1tdXZ2Q60
ごめん、途中で書き込んだ
まあ、言いたいのは分野横断的だと面倒だなってこと
285デフォルトの名無しさん (ワッチョイ ef89-Dcdc [39.111.228.181])
垢版 |
2021/02/25(木) 19:59:25.98ID:o69Cz55j0
transversal
2021/02/27(土) 00:05:45.90ID:fOML2+m/0
機械学習で正則化といえばロスに重みつけるやつで、正規化は入力か中間層をガウス分布に近づける操作やね
2021/03/01(月) 16:32:02.02ID:7ZNdmOBRM
lambdanetworkとかいうのが出てきた
2021/03/02(火) 01:41:31.08ID:aSgn2ezQ0
たかがラベリング合戦ですからほどほどに‥
2021/03/02(火) 14:55:14.65ID:KprYW+pBM
causal learnigって日本語でなんて言うの?
原因学習? 因果関係学習?
290デフォルトの名無しさん (ワッチョイ 9689-m4PU [39.111.228.181])
垢版 |
2021/03/02(火) 15:13:46.90ID:y/Cpe5k40
普段着学習
2021/03/02(火) 15:14:34.48ID:HYwCXxZc0
カジュアル学習だな
2021/03/02(火) 23:58:41.93ID:FHl+lquqr
お茶の間留学
2021/03/03(水) 15:37:53.54ID:a466TPPq0
日本語訳マジでやめて欲しいわ
意味が分かりにくすぎる
2021/03/07(日) 08:34:26.08ID:ovVd1ujW0
小猿ラーニング
2021/03/16(火) 14:48:06.49ID:qP7784Z/0
第4回 自動翻訳シンポジウム 〜自動翻訳と翻訳バンク〜https://www.smbc-card.com/nyukai/magazine/knowledge/visa_touch.jsp

本日開催
296デフォルトの名無しさん (ワッチョイ bb89-R6RZ [39.111.228.181])
垢版 |
2021/03/16(火) 15:42:31.98ID:VVLbd7hx0
Visaのタッチ決済とは?使い方やおすすめカードを紹介
2021/03/16(火) 15:57:26.05ID:qP7784Z/0
>>295
せっかくだから自動字幕も付ければいいのに
2021/03/16(火) 16:42:39.23ID:qP7784Z/0
>>297
右下の手話の同時通訳も頑張れば3 D モデルで自動生成できるよね
2021/03/18(木) 11:45:35.73ID:1ybz7R6W0
人工知能でジミー大西を再現 NTTドコモ
https://panora.tokyo/archives/22261

チー牛の発想(笑)
2021/03/20(土) 17:10:12.22ID:SutlyK1K0
「レベル4」と呼ばれる高度な自動運転の技術を2025年ごろまでに大都市などの市街地で実用化
https://www3.nhk.or.jp/news/html/20210320/k10012925431000.html

やっとレベル4だってさ
2021/03/20(土) 17:33:53.12ID:dTqTAxKea
横断しようとしている歩行者がいたら停止する
法定速度を守る
道路が汚れていたらどうするか
ものが落ちていた場合、どういう場合に無視するか

人間でも難しい問題が山積み
302デフォルトの名無しさん (ワッチョイ d35f-swgF [106.73.78.34])
垢版 |
2021/03/20(土) 18:17:09.51ID:ah+QJUGT0
高齢者の運転より安心できそう
2021/03/20(土) 20:00:01.63ID:SutlyK1K0
日本中の道路を 自動運転用に整備すればいい
たぶん20兆円ぐらいかかるだろうけど
ちょうどいい公共事業になるだろう
304デフォルトの名無しさん (ワッチョイ de89-1i51 [39.111.228.181])
垢版 |
2021/03/20(土) 20:54:34.45ID:GwTQ68N30
道路工事にどれだけ時間かかると思ってるんだw
2021/03/20(土) 21:06:32.21ID:SutlyK1K0
>>304
んー 50年くらい?(笑)
2021/03/20(土) 21:13:53.89ID:vUNrx7r30
50年後
「次世代形式に対応してないのでもう一回お願いします」
2021/03/20(土) 21:53:04.75ID:0/BZQQ4C0
LINEの個人情報が中国へだだ洩れだった問題で
LINE「説明が十分ではなかった」ってことでいろいろ説明してたが
結局、元々そんな仕様になっていて問題はないっていう
どこが問題では無いのかっていう
2021/03/20(土) 22:40:57.48ID:SutlyK1K0
>>306
また公共事業できていいじゃん
2021/03/20(土) 22:45:45.27ID:vUNrx7r30
そうせずになんとかなりそうな目途が立ってるのに
さすがにだるい
2021/03/21(日) 11:23:04.89ID:TAhxQpfva
>>307
規約に書いているのにきちんと読みもせず「そんなこと了承していない!」と怒っているだけ
2021/03/21(日) 11:27:52.31ID:t4P2IHf80
書いてあってもダメ
書いてあると主張すること自体がダメ
現に情報の保護がばっちりだと大体的に宣伝しているから
規約にあったら悪意をもって虚偽広告したのは明白
業務停止が妥当レベル
312デフォルトの名無しさん (ワッチョイ de89-1i51 [39.111.228.181])
垢版 |
2021/03/21(日) 12:47:02.88ID:7MVn+hE/0
>>310
チョン乙
2021/03/21(日) 13:01:32.24ID:ut0JDDIv0
ネトウヨさんは意外と騒いでないのは菅が広報でガッツリ使ってるからなんよねw
だからこそ今までLINEのばなしにしてたんだろうけれど。
あいつらはほんまダブスタ丸出しなんだわw
2021/03/21(日) 13:28:57.11ID:H+OGyDQG0
言った言わないとかどうでもいいからさっさと禁止しろよ
2021/03/21(日) 13:33:55.80ID:t4P2IHf80
同意したわけでは決してない
不誠実さや卑劣さを知らないわけではない
社会に屈服したんだ
316デフォルトの名無しさん (ワッチョイ de89-1i51 [39.111.228.181])
垢版 |
2021/03/21(日) 15:23:32.18ID:7MVn+hE/0
ネトウヨさんが意外と騒いでないのはLINEが韓国国家情報院が開発したもので情報が国家情報院が流れているのを知ってるからだよ
LINEを使っているのは情弱の馬鹿
2021/03/21(日) 17:32:24.00ID:ut0JDDIv0
話の噛み合ってないバカ登場
318デフォルトの名無しさん (ササクッテロラ Sp67-JmDC [126.167.51.141])
垢版 |
2021/03/21(日) 18:38:31.10ID:sx7aMuTzp
E資格ってのをとってみたけど
役立つかな?
319デフォルトの名無しさん (ワッチョイ de89-1i51 [39.111.228.181])
垢版 |
2021/03/21(日) 19:44:25.11ID:7MVn+hE/0
馬鹿というのが馬鹿
320デフォルトの名無しさん (ワッチョイ c701-Xoi0 [126.140.142.39])
垢版 |
2021/03/21(日) 21:29:57.83ID:3jvKXp5s0
>>318
あわしろ氏は、取るべきと言ってたぞ。
2021/03/22(月) 00:40:38.65ID:TakJ5P2Ia
>>318
重要なのは論文か国際会議への投稿だと思うけど
2021/03/22(月) 21:23:39.28ID:jnDhv8jq0
E気持ち
323デフォルトの名無しさん (ワッチョイ de89-1i51 [39.111.228.181])
垢版 |
2021/03/22(月) 21:52:03.66ID:go+deXIv0
7-11
324デフォルトの名無しさん (ワッチョイ 9de6-R4PM [14.3.161.87])
垢版 |
2021/04/02(金) 14:21:15.67ID:KNqNW5Vy0
https://diamond.jp/articles/-/266872?page=4

ここで出てくる「2020年、前述した ebmt の手法が復活して nmt の上に追加された」というのはknnmt のこと?
325デフォルトの名無しさん (ワッチョイ 75f3-6epr [220.211.225.116])
垢版 |
2021/04/04(日) 12:30:25.33ID:rdKx+7Rr0
ebmtの概念は、深層学習モデル以前のSMT的ものなので、knnmtとは別物だと思う。
Google scholarで論文を探してみたが、Sumita+ebmtだと2004年くらいに
1件ヒットするだけで、恐らく、ebmt+nmtのテーマではまだ論文発表はしてない。
記事は、一般論的な書き方をしてるが、ebmtを取り込んだのはNICTの翻訳エンジン
であり、この流れが広がっていくかは別問題。
NICTのアプローチはどちらかというと、モデルパラダイムよりもデータ重視の傾向が
強い。ただし、NICのデータパラダイムは、最近Andrew Ngが提唱してるデータ
重視論とは異なり、MTの精度向上を専門辞書の整備や、分野別コーパスなど
人手をかけることで解決するというかなり泥臭いやり方となる。ebmtを持ち出したの
も多分、それと同じ。
2021/04/05(月) 07:33:24.02ID:+AQc/QviM
うむ、見事なまでに何も判らん。
修行が足りんのか、分野が違うんだろうなぁ(遠い目)
327デフォルトの名無しさん (ワッチョイ 2e89-8vo5 [39.111.228.181])
垢版 |
2021/04/05(月) 11:22:07.65ID:H4wZ9f0a0
論語、念仏と同じと思えば
328デフォルトの名無しさん (ワッチョイ 9de6-R4PM [14.3.161.87])
垢版 |
2021/04/06(火) 16:15:11.38ID:ZL8nOQTg0
ニューラルネットワークの訓練における正則化は汎化性能の向上を目的としている、であってる?
329デフォルトの名無しさん (テテンテンテン MM0e-R4PM [133.106.33.185])
垢版 |
2021/04/07(水) 13:25:15.72ID:9UsmgW2CM
https://www.rd.ntt/cs/team_project/icl/lirg/innovative/research_innovative03.html
nttも成果を公表するようになってきた
ありがたい
2021/04/07(水) 14:11:05.37ID:aEOad5Sn0
グーグルのベンジオ(便所?)とかいう人が同僚二人の解雇に抗議して退職したとのことです。
2021/04/07(水) 14:42:06.86ID:h/XTHitC0
>>330
マジ?
2021/04/07(水) 16:15:21.42ID:4/RbgeKpM
googleさん闇落ち?
ちょっと前にも解雇騒動あったでしょ
333デフォルトの名無しさん (テテンテンテン MM0e-R4PM [133.106.33.128])
垢版 |
2021/04/07(水) 17:59:45.81ID:wk8IjE//M
reddit見る限り、ググルのことを陰謀を企む悪の組織と誤認してる電波が少しいて、
ググルを叩く風潮に嫌気が差してる人がほとんど

ゲブルの評判が悪い悪い(笑)
lecunと議論せずにひたすら上から目線で自分の論文を嫁としかツイらなかったせいで嫌われた
2021/04/07(水) 19:17:15.46ID:fhO6V2UYF
アメリカのテック系大企業は経営者に歯向かったら割と簡単にクビになるし特に珍しいことでもない
クビにしたところで世界中で優秀な人をいくらでも集められるから
日本企業は報酬もグローバルでの地位も魅力がないのでむしろ労働組合と関係良好なことをアピールする
2021/04/07(水) 19:21:43.78ID:kaudX4Ty0
優秀=白人(プロテスタントまたはJewish)金髪碧眼将来は毛男性 ってか・・・?w
2021/04/10(土) 18:13:18.66ID:92qP4Pw30
MS&GoogleのCEOインド出身だったりするけどな
337デフォルトの名無しさん (ワッチョイ 3689-/CMm [39.111.228.181])
垢版 |
2021/04/10(土) 21:39:10.15ID:fnNsjOwD0
ちょっとこれは、かなり難しく、力をお貸しいただきたいのですが、
自分でニューラルネットワークを作ろう
https://qiita.com/takahiro_itazuri/items/d2bea1c643d7cca11352#comment-a59cd26161ee56ea1220
の記事で質問があるのですが、
なんやかんやで大体ざっとは理解できたのですが、
重みの更新式
# 重みの更新
self.w_ho += self.lr * np.dot((e_o * self.daf(o_o)), o_h.T)
self.w_ih += self.lr * np.dot((e_h * self.daf(o_h)), o_i.T)
この式の意味が本当に分かりません。
※*は、成分同士を掛けて行列積を求めるもので、np.dotは普通の行列積になります。
一応
隠れ層から出力層への重みによる偏微分
入力層から隠れ層への重みによる偏微分
の部分は読んで、まぁそうなるんだろうなとざっと理解でき、
【深層学習】誤差逆伝播法|バックプロパゲーション
ttps://youtu.be/X8hK4ovQoLg
この動画を見たりしたのですが、
まず1つ目の
self.w_ho += self.lr * np.dot((e_o * self.daf(o_o)), o_h.T)
からよく分かりません。
可能であれば、複数の式になって良いので、スカラーによる計算式で示して頂きたいのですが・・・なぜこのようになるのか、を。
たぶん、
隠れ層から出力層への重みによる偏微分
入力層から隠れ層への重みによる偏微分
にある「重みの式」に代入していくような感じだとは思うのですが・・・。
2021/04/11(日) 11:31:48.34ID:cX1p0N8YM
>>337
そのQiitaの記事のコードの上の方に数式は具体的に書かれている訳だけども、
まずそっちは理解しているのかな?
理解できてないのであればまずは線形代数をしっかり学ぶ必要があると思う
2021/04/11(日) 21:23:07.14ID:J8YGJLtEa
>>337
dWの微分を行列で表すとそうなる
ほとんどの本ではそこは省略されてることが多い
340デフォルトの名無しさん (ワッチョイ 3689-/CMm [39.111.228.181])
垢版 |
2021/04/11(日) 21:25:59.74ID:JF/oxO5S0
>>338-339
ありがとうございます
2021/04/11(日) 21:29:25.29ID:J8YGJLtEa
スカラーから行列に手計算で直すのが良い
あとミニバッチ対応だと行列以外では表現できないから
行列は必須
2021/04/13(火) 19:20:02.35ID:JY3IIMBR0
経営者に歯向かうって
日本の95%ぐらいが同族企業で新しい芽はすぐ摘まれるのに
そんな歯向かう程意気込んでいる奴が居るのか?
何か反論してお前がやってみろ的流れで上げ足を取られないよう我慢較べに耐え
マイナスポイントを作らないように頑張るぐらいが
日本のサラリーマンのやる気だろ
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況