!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
↑すれたてる毎に1つずつ減るので、減ってたら3回に増やしてたてること。
機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです。
■前スレ
【統計分析】機械学習・データマイニング29
https://mevius.5ch.net/test/read.cgi/tech/1597882603/
-EOF-
【統計分析】機械学習・データマイニング30
https://mevius.5ch.net/test/read.cgi/tech/1609459855/
【統計分析】機械学習・データマイニング31
https://mevius.5ch.net/test/read.cgi/tech/1632587566/
【統計分析】機械学習・データマイニング32
https://mevius.5ch.net/test/read.cgi/tech/1659286605/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured
【統計分析】機械学習・データマイニング33
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん (ワッチョイ 5b10-ysRc [114.163.141.1])
2023/03/17(金) 01:30:49.78ID:RQNAfc890383デフォルトの名無しさん (ワッチョイ cf6c-edRi [254.206.42.254])
2023/10/16(月) 18:31:59.96ID:wRuHThXc0 ニューラルネットは巨大すぎて、深く勉強しても使うことがない気がするので、
教養くらいにとどめてる。学習済みモデルを使うこと以外はほぼあり得んじゃろう。
教養くらいにとどめてる。学習済みモデルを使うこと以外はほぼあり得んじゃろう。
384デフォルトの名無しさん (ワッチョイ 8262-8seT [253.234.243.219])
2023/10/16(月) 18:41:22.51ID:GRnwNzlx0 精度が低くていいのであれば、何をつかってもいいんじゃないの?
さいころを転がして文を作ってもいい
さいころを転がして文を作ってもいい
385デフォルトの名無しさん (ワントンキン MM52-V90I [153.159.27.154])
2023/11/02(木) 14:59:28.50ID:DD7jjOr+M nttもllmやんのかよ
イッチョカミwww
イッチョカミwww
386デフォルトの名無しさん (ワッチョイ 1b13-dQtH [250.93.230.9])
2023/11/03(金) 18:52:54.40ID:cbgvGuNU0 岡谷貴之著『深層学習第1版』
ソフトマックス関数は冗長だが、ユニットの一つを選びその入力を0にしてしまえば冗長性を回避できる。
選んだユニットに入る結合重みもきちんと出力に反映される。
というようなことが書かれているのですが、本当に、選んだユニットに入る結合重みもきちんと出力に反映されますか?
ソフトマックス関数は冗長だが、ユニットの一つを選びその入力を0にしてしまえば冗長性を回避できる。
選んだユニットに入る結合重みもきちんと出力に反映される。
というようなことが書かれているのですが、本当に、選んだユニットに入る結合重みもきちんと出力に反映されますか?
387デフォルトの名無しさん (ワッチョイ 46c9-hjvO [153.168.0.106])
2023/11/03(金) 19:02:04.03ID:HpzMhRwM0 そもそも、ソフトマックスかんすうとかはしまょうたいりょうのかほうせい(f(x)+f(y)=f(x*y))が大前提
388デフォルトの名無しさん (ワッチョイ 7b6e-O1I7 [138.64.84.230])
2023/11/04(土) 09:21:40.60ID:d7Ss/xzS0 ハルシネーションて創造力の原動にならない?
人間が矯正して消しちゃうけど個性なんでわ?
人間が矯正して消しちゃうけど個性なんでわ?
389デフォルトの名無しさん (ワッチョイ 3b56-/9BA [250.93.230.9])
2023/11/05(日) 10:24:18.73ID:iAGuwN4n0 確率的勾配降下法について質問です。
E(W) = E_1(W) + … + E_N(W)
の値をできるだけ小さくするような W を求めたい。
E_i(W) は i 番目のデータに対するニューラルネットワークの出力と i 番目の正解データとの誤差です。
確率的勾配降下法では、 (grad D)(W) を計算するのではなく、ランダムに i ∈ {1, …, N} を選んで、 (grad D_i)(W) を計算して
重み W を更新します。
こうすると、 W を更新する際に、 i 番目のデータに対する E_i(W) の値は小さくなると思いますが、全体として E(W) の値が小さくなることはどうやって分かるのでしょうか?
例えば、
(grad E_1)(W) を計算して、 W を更新する。 → E_1(W) の値が小さくなる。
(grad E_2)(W) を計算して、 W を更新する。 → E_2(W) の値は小さくなるが、直前にせっかく小さくした E_1(W) や他の E_i(W) の値は大きくなってしまう。
というようなことが起こらないのでしょうか?
E(W) = E_1(W) + … + E_N(W)
の値をできるだけ小さくするような W を求めたい。
E_i(W) は i 番目のデータに対するニューラルネットワークの出力と i 番目の正解データとの誤差です。
確率的勾配降下法では、 (grad D)(W) を計算するのではなく、ランダムに i ∈ {1, …, N} を選んで、 (grad D_i)(W) を計算して
重み W を更新します。
こうすると、 W を更新する際に、 i 番目のデータに対する E_i(W) の値は小さくなると思いますが、全体として E(W) の値が小さくなることはどうやって分かるのでしょうか?
例えば、
(grad E_1)(W) を計算して、 W を更新する。 → E_1(W) の値が小さくなる。
(grad E_2)(W) を計算して、 W を更新する。 → E_2(W) の値は小さくなるが、直前にせっかく小さくした E_1(W) や他の E_i(W) の値は大きくなってしまう。
というようなことが起こらないのでしょうか?
390デフォルトの名無しさん (ワッチョイ 3bb9-/9BA [250.93.230.9])
2023/11/05(日) 13:39:34.14ID:iAGuwN4n0 結局、もぐらたたきのように、いくら局所的な改善をしても全体としては一向に改善されないというような事態にはならないのでしょうか?
391デフォルトの名無しさん (アウアウウー Sa0f-CWlg [106.180.4.243])
2023/11/05(日) 13:53:23.48ID:ol9bMVcca 大きくなったらキャンセルすれば良いんじゃないか
そもそもEってErrorのEか?EigenのEか?
そもそもEってErrorのEか?EigenのEか?
392デフォルトの名無しさん (ワッチョイ 9f15-L2tG [253.234.243.219])
2023/11/05(日) 16:29:42.61ID:M+aCXIKU0 データ量が大きくなって、ネットワーク構造を複雑にすると
なぜか全体として改善されることが経験的にわかっている
なぜかを研究する分野もある
なぜか全体として改善されることが経験的にわかっている
なぜかを研究する分野もある
393デフォルトの名無しさん (ワッチョイ 9f02-wdyj [27.91.124.53])
2023/11/05(日) 17:11:37.33ID:nUzq/ZGt0394デフォルトの名無しさん (ワッチョイ 3bb9-/9BA [250.93.230.9])
2023/11/05(日) 17:18:34.99ID:iAGuwN4n0395デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.155.31.74])
2023/11/05(日) 20:15:53.11ID:NuL1PsARa396デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181])
2023/11/05(日) 20:45:36.83ID:wlYomXuO0397デフォルトの名無しさん (アウアウウー Sa0f-CWlg [106.180.4.252])
2023/11/05(日) 23:32:13.01ID:6QUCKtJua なんでみんな偏微分勉強しないの?
398デフォルトの名無しさん (ワンミングク MMbf-O1I7 [153.155.231.163])
2023/11/06(月) 15:33:19.99ID:KM1ADC5yM 自由エネルギー原理、ちかまたオカルトみたいなことやってんのな😅
399デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181])
2023/11/06(月) 17:41:34.06ID:MSLupMxE0 機械学習における最適化理論と学習理論的側面
https://www.kurims.kyoto-u.ac.jp/coss/coss2020/suzuki-lecture1.pdf
確率的勾配降下法の収束の証明、ざっと眺めてみたら、まじめにやると禿げる
https://www.kurims.kyoto-u.ac.jp/coss/coss2020/suzuki-lecture1.pdf
確率的勾配降下法の収束の証明、ざっと眺めてみたら、まじめにやると禿げる
400デフォルトの名無しさん (ワッチョイ abca-pScM [254.206.42.254])
2023/11/06(月) 18:13:52.90ID:jt8VLAcA0 確率勾配法も、transfomerやCNNもあんまり数理的に詳しくない人が思いついた気がするけど、数理的に深い方の統計機械学習はどのくらい価値があるのかイマイチわからない
401デフォルトの名無しさん (ワッチョイ fb90-FqIF [42.124.2.109])
2023/11/06(月) 23:02:03.53ID:syJ5nTa30 ヒューリスティックなことって結構あるよね
局所最適解に捕まってないという証明出来ないこと多いし
局所最適解に捕まってないという証明出来ないこと多いし
402デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.146.125.80])
2023/11/07(火) 00:34:05.64ID:68QHudqSa >>400
バックプロゲーションやNNの最適化を60年代にすでに完成させてた甘利先生が
ローカルミニマムに陥るのを防ぐことはできないと言って諦めた分野だからな
少なくとも数学的な理論では無理だと判断した
ローカルミニマムに陥らないようにする各種手法を小手先のテクニックと言って切り捨ててたし
確かにミニバッチ勾配降下法とかドロップアウトとかレイヤー正規化だとかの理論は
あくまでやってみたら有効だったというだけで証明は一切ない
バックプロゲーションやNNの最適化を60年代にすでに完成させてた甘利先生が
ローカルミニマムに陥るのを防ぐことはできないと言って諦めた分野だからな
少なくとも数学的な理論では無理だと判断した
ローカルミニマムに陥らないようにする各種手法を小手先のテクニックと言って切り捨ててたし
確かにミニバッチ勾配降下法とかドロップアウトとかレイヤー正規化だとかの理論は
あくまでやってみたら有効だったというだけで証明は一切ない
403デフォルトの名無しさん (ワッチョイ 7b6e-O1I7 [138.64.84.230])
2023/11/07(火) 07:26:59.94ID:QDtGzaCz0 現実の現象は決定論的でないしノイズまみれだから気にすることない
404デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181])
2023/11/07(火) 11:07:08.91ID:Se26FTX90 解空間が複雑で分からないと言ってるだけだろ、最適解の尺度(L2ノルム等)を決めた時に解を求める方法があるといってるんだよ。
万能な方法があるわけがない、甘利爺なんかを信じなるなよ
万能な方法があるわけがない、甘利爺なんかを信じなるなよ
405デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.146.125.124])
2023/11/07(火) 12:43:17.08ID:yYWpV8FYa406デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.146.127.135])
2023/11/07(火) 12:51:38.81ID:LIk4YSRsa407デフォルトの名無しさん (ワンミングク MMbf-O1I7 [153.155.231.163])
2023/11/07(火) 13:00:09.34ID:/4zMRPCKM なにしに戻ってきたんだかwww
408デフォルトの名無しさん (ワンミングク MMbf-O1I7 [153.155.231.163])
2023/11/07(火) 13:00:25.56ID:/4zMRPCKM なにしに戻ってきたんだかwww
409デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181])
2023/11/07(火) 13:19:10.36ID:Se26FTX90 >>406
情報幾何は失敗だった草
情報幾何は失敗だった草
410デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.146.127.135])
2023/11/07(火) 13:35:21.83ID:LIk4YSRsa411デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181])
2023/11/07(火) 14:38:35.93ID:Se26FTX90 昔ある学会である人のは発表を聞いてそれは俺が前にやったと言っていた傲慢な爺
412デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.155.29.234])
2023/11/07(火) 15:31:42.12ID:Nt2OyzQea 甘利先生の考えた「自然勾配」を最適化に使うと言う理論は今でこそ一般化した感じはあるが
これを70年代に生み出していたのはマジの天才としか言いようがないよ
これを70年代に生み出していたのはマジの天才としか言いようがないよ
413デフォルトの名無しさん (ワンミングク MMbf-O1I7 [153.155.231.163])
2023/11/07(火) 15:33:49.11ID:/4zMRPCKM 理論的な綺麗さを求める人はそれはそれで必要だからやってくれればいいけど工学馬鹿にしたような感じがしてちょっと俺は
transformerの内部解析すらしようとしないし(笑)できないのかもしれんが
transformerの内部解析すらしようとしないし(笑)できないのかもしれんが
414デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.155.29.234])
2023/11/07(火) 15:44:03.88ID:Nt2OyzQea 甘利先生が60年代と70年代に出した論文を超えるようなものを出した日本人はいないからね
この時期は福島先生という今のCNNとまんま同じNNを出した天才もいるし
時代が違っていれば日本人が世界していた可能性も高い
この時期は福島先生という今のCNNとまんま同じNNを出した天才もいるし
時代が違っていれば日本人が世界していた可能性も高い
415デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.155.29.234])
2023/11/07(火) 15:45:51.99ID:Nt2OyzQea s/世界していた/世界を支配していた/
416デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181])
2023/11/07(火) 15:49:56.83ID:Se26FTX90 ハードウェアの発展(GPU、メモリ)があったからDLが発展した。それだけ。
417デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.155.29.234])
2023/11/07(火) 15:52:40.77ID:Nt2OyzQea418デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.155.29.234])
2023/11/07(火) 15:59:17.64ID:Nt2OyzQea 本当のブレイクスルーはtransformersぐらいだしね
それ以外は全部元ネタはあったわけで
それをさも新しいもののように発表してるから
甘利先生は怒ってるのだろう
それ以外は全部元ネタはあったわけで
それをさも新しいもののように発表してるから
甘利先生は怒ってるのだろう
419デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181])
2023/11/07(火) 16:41:31.61ID:Se26FTX90 甘利爺さんも外野w
420デフォルトの名無しさん (ワンミングク MMbf-O1I7 [153.155.231.163])
2023/11/07(火) 16:48:34.03ID:/4zMRPCKM 自然勾配使われてねえじゃん
421デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181])
2023/11/07(火) 22:48:16.56ID:Se26FTX90 >>414
福島先生は日本放送協会の役に立たない基礎研究をやっていたと後輩がいってた
福島先生は日本放送協会の役に立たない基礎研究をやっていたと後輩がいってた
422デフォルトの名無しさん (ワッチョイ 9f02-wdyj [27.91.124.53])
2023/11/07(火) 23:06:40.04ID:En25i7Ex0423デフォルトの名無しさん (ワッチョイ 3be6-/9BA [250.93.230.9])
2023/11/10(金) 17:43:39.65ID:WbKAk9iL0 YouTubeの3Blue1BrownJapanのニューラルネットワークの動画を見ました。
「第2層が短い線を検出し、第3層がパターンを検出し、」という説明がありました。
ニューラルネットワークの重みやバイアスが何なのかはブラックボックスとして考えないのかと思っていましたがそうではないんですね。
ニューラルネットワークを学習させ、満足のいくものを完成させたとします。
このとき、例えば、第1層がどんな処理をしているのか人間が分かるような説明はどうやって見出すのでしょうか?
「第2層が短い線を検出し、第3層がパターンを検出し、」という説明がありました。
ニューラルネットワークの重みやバイアスが何なのかはブラックボックスとして考えないのかと思っていましたがそうではないんですね。
ニューラルネットワークを学習させ、満足のいくものを完成させたとします。
このとき、例えば、第1層がどんな処理をしているのか人間が分かるような説明はどうやって見出すのでしょうか?
424デフォルトの名無しさん (ワンミングク MMbf-O1I7 [153.155.231.163])
2023/11/10(金) 18:16:16.88ID:Fu2s73WNM 重みを可視化してこんなのかな~て当たりをつけて実際にサンプルを入れて反応を見る
425デフォルトの名無しさん (ワッチョイ 3be6-/9BA [250.93.230.9])
2023/11/10(金) 18:31:10.70ID:WbKAk9iL0426デフォルトの名無しさん (ワッチョイ ef02-L2tG [255.105.63.166])
2023/11/10(金) 20:35:16.62ID:0kaXsg6n0 現状では説明できないんだよ
経済系の人とか説明が重要らしくて困っているらしいけど
ちなみに説明しようという研究分野があるけど難航している
複雑に分散されているのが説明困難な理由らしいけど
経済系の人とか説明が重要らしくて困っているらしいけど
ちなみに説明しようという研究分野があるけど難航している
複雑に分散されているのが説明困難な理由らしいけど
427デフォルトの名無しさん (ワッチョイ aba6-OkTm [254.206.42.254])
2023/11/10(金) 20:50:38.03ID:8Gy2rkAk0 そもそも機械学習の手法の目的は予測する事で、介入効果については例えばRFでimportanceが高かろうが何も言えなく、実はテーブルデータに関しては役に立つ局面のは限定的だとおもう
428デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181])
2023/11/10(金) 21:25:01.31ID:3XhgP/+70 NNにwhyと聞いてもわからない
429デフォルトの名無しさん (ワッチョイ 2302-Zoup [27.91.124.53])
2023/11/11(土) 00:45:05.44ID:mw2Z4gxk0430デフォルトの名無しさん (アウアウウー Sa59-Xzxn [106.180.5.115])
2023/11/11(土) 01:11:32.04ID:uDCEJA+aa431デフォルトの名無しさん (ワッチョイ db89-lv/m [39.111.228.181])
2023/11/16(木) 17:00:07.32ID:XiZUwLpp0 Microsoftが独自設計のAI特化型チップ「Maia 100」
https://gigazine.net/news/20231116-microsoft-maia-ai-accelerator-cobalt-arm-cpu/
https://gigazine.net/news/20231116-microsoft-maia-ai-accelerator-cobalt-arm-cpu/
432デフォルトの名無しさん (ワッチョイ 1d6e-qaK/ [138.64.114.77])
2023/11/16(木) 17:58:58.50ID:XLf88XLv0 nnにllmつけて説明させた研究があったろ
あれでええやん😅
あれでええやん😅
433デフォルトの名無しさん (ワッチョイ db89-lv/m [39.111.228.181])
2023/11/16(木) 18:44:27.66ID:XiZUwLpp0 Microsoft、AI最適化チップ「Azure Maia 100」
https://www.itmedia.co.jp/news/articles/2311/16/news085.html
https://www.itmedia.co.jp/news/articles/2311/16/news085.html
434デフォルトの名無しさん (ワッチョイ 856e-w41H [138.64.114.77])
2023/11/18(土) 07:10:39.79ID:gzRhEgeE0 アルトマン退社?求心力落ちない?🤔
435デフォルトの名無しさん (ワッチョイ e377-idYm [219.124.94.145 [上級国民]])
2023/11/18(土) 09:42:49.83ID:Fe/rTQgz0 ナチスの親衛隊に居そうな名前だな
436デフォルトの名無しさん (ワッチョイ e302-ekUX [27.91.124.53])
2023/11/18(土) 10:03:41.84ID:rdSjQnXM0437デフォルトの名無しさん (ワッチョイ 7b89-hO6y [39.111.228.181])
2023/11/18(土) 10:21:57.21ID:PRDIldLB0 アルトマンと言えば結婚相談所
438デフォルトの名無しさん (ワッチョイ 250a-35jY [2409:10:23a0:0:*])
2023/11/18(土) 11:56:46.85ID:SNWdkqqU0 ブロックマンも?
439デフォルトの名無しさん (ワッチョイ e302-ekUX [27.91.124.53])
2023/11/18(土) 15:33:38.13ID:rdSjQnXM0440デフォルトの名無しさん (ワッチョイ 250a-35jY [2409:10:23a0:0:*])
2023/11/18(土) 20:16:30.61ID:SNWdkqqU0 それがブロックマン他数名?もOpenAIを出ていったらしい
441デフォルトの名無しさん (ワッチョイ e302-ekUX [27.91.124.53])
2023/11/18(土) 20:28:43.34ID:rdSjQnXM0442デフォルトの名無しさん (ワッチョイ 250a-35jY [2409:10:23a0:0:*])
2023/11/18(土) 20:56:56.14ID:SNWdkqqU0 >>441
情報が古い
twitter.com/gdb/status/1725667410387378559
www.theinformation.com/articles/three-senior-openai-researchers-resign-as-crisis-deepens
https://twitter.com/thejimwatkins
情報が古い
twitter.com/gdb/status/1725667410387378559
www.theinformation.com/articles/three-senior-openai-researchers-resign-as-crisis-deepens
https://twitter.com/thejimwatkins
443デフォルトの名無しさん (ワッチョイ e302-ekUX [27.91.124.53])
2023/11/18(土) 21:20:46.49ID:rdSjQnXM0 >>442
というと?
というと?
444デフォルトの名無しさん (ワッチョイ e3bf-XEEy [2400:2410:84e1:6000:*])
2023/11/18(土) 21:50:49.06ID:WoIxjYhA0 で結局OpenAIはMSに買収されてしまうの?
445デフォルトの名無しさん (ワッチョイ 856e-w41H [138.64.114.77])
2023/11/19(日) 12:10:17.89ID:hd0WYi1o0 グーグルにおけるアンソロピック的なナニかになるかと
446デフォルトの名無しさん (ワッチョイ e302-ekUX [27.91.124.53])
2023/11/19(日) 12:16:41.68ID:YteVvgO90447デフォルトの名無しさん (ワッチョイ 856e-w41H [138.64.114.77])
2023/11/19(日) 14:05:22.99ID:hd0WYi1o0 取締役会てのがなんか怪しくね?
何もしとらんやん
何もしとらんやん
448デフォルトの名無しさん (ワッチョイ 2dc6-nXTY [240d:1a:632:db00:*])
2023/11/19(日) 14:37:40.63ID:6yX2EY8S0 資本主義とはそういうものやで。日本のIT企業も経営陣は何もしてないし、コードもかけない。
449デフォルトの名無しさん (ワッチョイ 7b89-hO6y [39.111.228.181])
2023/11/19(日) 14:50:44.00ID:9b5NsbkP0 日本のIT企業は錬金術をやっているところ
450デフォルトの名無しさん (アウアウウー Saa1-UHOz [106.180.4.112])
2023/11/19(日) 14:52:27.66ID:/G2k3fWta 儲かると観ると役員入れ替えと買収乗っ取りが進む
そして糞企業に成り下がる
sunもoracleもgifもgoogleもyoutubeも歩んだ道
そして糞企業に成り下がる
sunもoracleもgifもgoogleもyoutubeも歩んだ道
451デフォルトの名無しさん (ワッチョイ 7b89-hO6y [39.111.228.181])
2023/11/19(日) 16:39:16.02ID:9b5NsbkP0 それらは立派な技術で世界制覇した、揚げ足とってもみじめになるだけ
452デフォルトの名無しさん (ワッチョイ 7b89-hO6y [39.111.228.181])
2023/11/19(日) 21:13:19.79ID:9b5NsbkP0 アルトマン氏の復職、マイクロソフト含むオープンAI株主が要求
https://www.bloomberg.co.jp/news/articles/2023-11-19/S4CGWWT0G1KW01
https://www.bloomberg.co.jp/news/articles/2023-11-19/S4CGWWT0G1KW01
453デフォルトの名無しさん (ワッチョイ e302-ekUX [27.91.124.53])
2023/11/19(日) 21:18:57.99ID:YteVvgO90454デフォルトの名無しさん (ワンミングク MMe3-w41H [153.155.231.163])
2023/11/20(月) 17:08:59.18ID:IGl0cS/iM アルトマンはMSに合流だってさ
455デフォルトの名無しさん (ワッチョイ 7b89-hO6y [39.111.228.181])
2023/11/20(月) 20:52:56.88ID:Og7ELo6m0 【速報】サム・アルトマン氏 マイクロソフトに入社へ
https://news.yahoo.co.jp/articles/ced32c8d9c93a2f4b58d47b82dfa3389a2f3b536
https://news.yahoo.co.jp/articles/ced32c8d9c93a2f4b58d47b82dfa3389a2f3b536
456デフォルトの名無しさん (ワッチョイ 3542-jMfl [2400:4150:8ac0:d00:*])
2023/11/22(水) 12:34:29.92ID:OwYtBEmW0 OpenAI理事会、アルトマン氏の復帰を協議 米報道
457デフォルトの名無しさん (ワッチョイ e302-ekUX [27.91.124.53])
2023/11/22(水) 12:37:59.34ID:LGKIBQbA0 >>456
ゴタゴタすぎw
ゴタゴタすぎw
458デフォルトの名無しさん (ワッチョイ 3d90-n3S/ [182.20.254.161])
2023/11/22(水) 13:39:12.51ID:OkHSaxJz0 アルトマンの解雇に動いた取締役のヤツも
旗幟を変えて沈没する反アルトマンから逃げ出したな
旗幟を変えて沈没する反アルトマンから逃げ出したな
459デフォルトの名無しさん (ワンミングク MMe3-w41H [153.155.231.163])
2023/11/22(水) 14:26:44.88ID:FQO0e9KYM gptsと似たようなサービス出してるやつが取締役会にいるらしいな
それで追い出したんじゃないか、て話が出てる
それで追い出したんじゃないか、て話が出てる
460デフォルトの名無しさん (ワッチョイ a3a8-uGmK [2001:268:98d8:d46e:*])
2023/11/22(水) 15:46:09.11ID:1XUVLzBa0461デフォルトの名無しさん (ワッチョイ e302-ekUX [27.91.124.53])
2023/11/22(水) 15:49:54.53ID:LGKIBQbA0462デフォルトの名無しさん (アウアウウー Saa1-0t/8 [106.146.113.28])
2023/11/22(水) 16:30:54.75ID:Nm24GmIda 従業員の9割退職するとか言い出したからな
そんな絞りカスみたいなのだけ残されても会社の体をなさないし復帰しか選択肢はなかっただろう
そんな絞りカスみたいなのだけ残されても会社の体をなさないし復帰しか選択肢はなかっただろう
463デフォルトの名無しさん (ブーイモ MM03-35jY [49.239.68.226])
2023/11/22(水) 20:27:59.27ID:mLbH07bVM 結局首謀者は誰だったのか
464デフォルトの名無しさん (アウアウウー Saa1-/c1L [106.146.15.163])
2023/11/23(木) 19:14:55.48ID:K32BUH0oa 最近CNNについて勉強してるんだけどなんでCNNの進化EfficentNetで止まっちゃってるの?
ViTが出たからもうCNNはオワコン扱いなのかな
ViTが出たからもうCNNはオワコン扱いなのかな
465デフォルトの名無しさん (ワッチョイ 2ddf-nXTY [240d:1a:632:db00:*])
2023/11/23(木) 19:26:22.56ID:/IrV1b/40 なんと、ViT言葉からキーバリューで畳み込みと似たことをやってるのかと思ったら、畳み込みしないモデルなのか
466デフォルトの名無しさん (ワントンキン MMe3-w41H [153.154.78.128])
2023/11/24(金) 09:23:51.32ID:qvF3qj7qM 畳み込みはしないけどパターン認識の基本だから
結局畳込み的なフィルタ処理はやってる
結局畳込み的なフィルタ処理はやってる
467デフォルトの名無しさん (ワッチョイ 4379-Julz [2001:268:c104:8774:*])
2023/11/25(土) 18:55:08.72ID:Db2RbKpf0468デフォルトの名無しさん (ワッチョイ 2302-srP8 [59.138.226.58])
2023/11/26(日) 10:28:58.39ID:59LZT78S0 音声合成VALL-E-Xってのを使ってみたが、評判はいいのに俺が使ったら全然似てなかった。
だれか使った人いる?
だれか使った人いる?
469デフォルトの名無しさん (ワッチョイ ed6e-+vVj [138.64.114.77])
2023/11/30(木) 09:11:46.36ID:Pbr0EWAn0 llmがファインチューニングかけるとアホになるのは
ファインチューニングで使うコーパスや方針が非論理的だからだろ
ファインチューニングで使うコーパスや方針が非論理的だからだろ
470デフォルトの名無しさん (ワッチョイ 13bd-Bo0g [240b:c010:461:8f1c:*])
2023/12/02(土) 03:20:12.89ID:XAS82Mg10 LoRAは絵ではうまく言ったけどLLMでは思ったほど成果がないらしいな
471デフォルトの名無しさん (アウアウウー Sa9d-qUbB [106.146.28.70])
2023/12/03(日) 16:40:58.19ID:yd0YzEc7a GPT-nとBERTの違いがイマイチあやふやなんだけど
TransformerのEncoderを使って事前学習して特徴量を生成するのがBERT
TransformerのDecoderを使ってBERTが生成した特徴量をもとに自然言語を生成するのがGPT-nって理解であってるのかな?
GPT-4も学習時はBERT使って学習してるのよね?
TransformerのEncoderを使って事前学習して特徴量を生成するのがBERT
TransformerのDecoderを使ってBERTが生成した特徴量をもとに自然言語を生成するのがGPT-nって理解であってるのかな?
GPT-4も学習時はBERT使って学習してるのよね?
472デフォルトの名無しさん (アウアウウー Sa9d-/D3x [106.155.16.213])
2023/12/03(日) 16:59:59.16ID:POEAPkcja473デフォルトの名無しさん (ワッチョイ 8917-vBln [240d:1a:632:db00:*])
2023/12/03(日) 17:01:30.18ID:KjJi6E/00 多分99%以上の人は自力で学習する事はないだろうから、その辺全部まとめてtransfomerでいい気がするww
474デフォルトの名無しさん (アウアウウー Sa9d-/D3x [106.155.16.213])
2023/12/03(日) 17:08:21.32ID:POEAPkcja あとGPTもEncoderとDecoderでモデルを分けてるわけじゃない
同じモデルを使ってるから単に用途の的な意味でしかない
コード読んだらわかるけど
同じモデルを使ってるから単に用途の的な意味でしかない
コード読んだらわかるけど
475デフォルトの名無しさん (アウアウウー Sa9d-qUbB [106.146.30.14])
2023/12/03(日) 17:18:35.64ID:tIQpSdkpa >>472
GPTとBERTの立ち位置が良く分からなくて混乱してくる…
単方向か双方向かの違いなのかな?
それだと双方向に学習するBERTの方が精度高そうなのになんでGPTの方が流行ってるんだろう
論文とかコードは数式が難しくて読める気がしない…
GPTとBERTの立ち位置が良く分からなくて混乱してくる…
単方向か双方向かの違いなのかな?
それだと双方向に学習するBERTの方が精度高そうなのになんでGPTの方が流行ってるんだろう
論文とかコードは数式が難しくて読める気がしない…
476デフォルトの名無しさん (ワッチョイ 5351-Gbav [2405:6580:8220:1b00:*])
2023/12/03(日) 17:21:29.12ID:6i/6hVjh0477デフォルトの名無しさん (ワッチョイ 7902-zrcD [182.166.147.105])
2023/12/03(日) 17:37:00.52ID:EqP19IVs0 タスク分解を備えた自律エージェントがAGI開発の次の壁を破りそうだけど、これが完成すると設計の壁が無くなるので、コーダーだけじゃなくSEも失業危機
478デフォルトの名無しさん (ワッチョイ 7b89-8qzv [39.111.228.181])
2023/12/03(日) 18:45:24.95ID:ynYZS9P30 そんなことができるなら誰も苦労はしない
479デフォルトの名無しさん (アウアウウー Sa9d-/D3x [106.146.125.1])
2023/12/03(日) 20:32:11.51ID:PuZI2f4Xa480デフォルトの名無しさん (アウアウウー Sa9d-/D3x [106.146.125.1])
2023/12/03(日) 20:47:26.62ID:PuZI2f4Xa あとBERTは最後に線形層などを追加して分類問題として使えたり
様々なタスクに使えるようにできてる
GPTはそうではないが結局プロンプトを分類問題として指定することで同じことができることが判明した
つまりGPTこそあらゆる機能に応用可能な存在だった訳だ
様々なタスクに使えるようにできてる
GPTはそうではないが結局プロンプトを分類問題として指定することで同じことができることが判明した
つまりGPTこそあらゆる機能に応用可能な存在だった訳だ
481デフォルトの名無しさん (ワッチョイ 7b89-8qzv [39.111.228.181])
2023/12/03(日) 22:08:28.11ID:ynYZS9P30 export PS1="$ "
482デフォルトの名無しさん (JP 0Heb-58iW [133.106.156.113])
2023/12/04(月) 03:45:46.09ID:GuHykRkTH マイニングが今儲かるのか儲からないのかの確認方法
を調べたらマイニング爆益やんけ
を調べたらマイニング爆益やんけ
483デフォルトの名無しさん (スップ Sd73-RUNM [1.75.152.10])
2023/12/04(月) 12:42:48.87ID:EqOxc786d■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 日本行き空路49万件キャンセル 中国自粛呼びかけ 日本行きチケット予約の約32%に相当 ★4 [ぐれ★]
- 中国の局長は「両手をポケット」で対峙 宣伝戦で国民に示す ★3 [蚤の市★]
- 【音楽】Perfume・あ~ちゃんの結婚相手「一般男性」は吉田カバンの社長・吉田幸裕氏(41) 高身長で山本耕史似 [Ailuropoda melanoleuca★]
- 【大分】佐賀関で大規模火災、170棟以上が延焼中 70代男性1人と連絡取れず [ぐれ★]
- 【サッカー】U-17日本代表、激闘PK戦制す 北朝鮮撃破で6大会ぶり8強入り U17W杯 [久太郎★]
- 「クマはなるべく山に返す努力を」「クマと戦争は間違っている」動物保護活動家の主張 棲み分けと学習放獣でクマ被害なくなるのか?★7 [ぐれ★]
- とらせん IPあり
- 巨専】
- こいせん 全レス転載禁止
- 【DAZN】ワールドカップ欧州予選総合 ★5
- 侍ジャパンシリーズ2025「日本vs韓国」その12
- 【J SPORTS】FIFA U-17ワールドカップ ★10
- 「世の中、バカが多くて疲れません?」👉1991年日本人大発狂 [543236886]
- アンケート調査で「高市発言は問題なし」 93.5%wwwwwwwwwwwwwwwwwwwwwwwww [279254606]
- 自閉症が「んなっしょい」と連呼するお🏡
- 寒い寒い寒い寒い寒い寒い寒い寒い寒い寒い寒い寒い寒い寒い寒い寒い寒い寒い
- マクラーレン、女性ドライバー3名を加入 [462275543]
- 【悲報】大分市佐賀関の火事、20軒→170軒に延焼🔥 [481941988]
