【統計分析】機械学習・データマイニング33

!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
↑すれたてる毎に1つずつ減るので、減ってたら3回に増やしてたてること。

機械学習とデータマイニングについて語れ若人

*機械学習に意識・知能は存在しません。
 人の意識に触れたい方はスレ違いです。

■前スレ
【統計分析】機械学習・データマイニング29
https://mevius.5ch.net/test/read.cgi/tech/1597882603/
-EOF-
【統計分析】機械学習・データマイニング30
https://mevius.5ch.net/test/read.cgi/tech/1609459855/
【統計分析】機械学習・データマイニング31
https://mevius.5ch.net/test/read.cgi/tech/1632587566/
【統計分析】機械学習・データマイニング32
https://mevius.5ch.net/test/read.cgi/tech/1659286605/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured

センスある人ない人の差が激しすぎる

でーたさいえんてぃすとになりたい
えーあいやりたい

ってだけでは入ってはいけない世界と思う。
ただのIT土方になるだけ

もなーのAA(ry

meshgraphnets面白い

職業選択の自由だよ

問題はさぁ、お客さんに失礼ってことだよ

誰がお客さんに失礼なんだ?

5chにkaggleなどのコンテストやってる人はいないのか

>>588
何って◯◯Fとか

AGFか

そもそもあれなんだよ、AIなんかに頼るのは確率モデルを数学的に正しく理解できてないからだよ 数学の達人にAIはいらんのだ

>>592
同意
AIってキーワードと簡易さからたくさんの人が使用するようになった。

機械学習なんて名称のままだったらこんなに広まってないわな

コンピュータに頼らんと何も出来ない癖にw

数学者でもAIに頼ると思うけど?
専門分野ならAIよりも賢いから叩き台にするくらいだろうけど
それ以外なら普通に使うだろ

Transformerって完全パラレル計算なの?
chatgptは2048文字とかパラレル?

LSTMみたいに順次計算とは違うの?

0597デフォルトの名無しさん (ワッチョイ 8922-jqPc [240d:1a:632:db00:*])2024/01/30(火) 00:37:42.67ID:NygQsXD80
500次元くらいの各文字のベクトルに位置を反映した三角関数みたいなのを足していて、横に広がらなくて組み合わせ爆発が起きないのが勝因みたいな理解

>>596
推論は順次計算だよ
コンテキスト作成までは並行

ニューラリンク、治験参加者に初の脳デバイス埋め込み 「回復順調」

中国では既にやってそうなw

>>599
入ってないのはお前だけだ〜って群衆に追っかけられる未来が見えた

SF映画にありそうw

脳モデルイメージによる災害でしょこんなん。

https://wired.jp/article/elon-musk-neuralink-human-patient-brain-implant/

0603デフォルトの名無しさん (ワッチョイ 16bc-EVRh [2001:ce8:117:ba5c:*])2024/02/26(月) 19:08:06.07ID:j9P7GmRX0
教師無し学習を1か月勉強したいんだが
教師有りの知識ないと躓きやすいですか?
どうにしかして大学レベルの機械学習の知識を得たい

>>603
パターン認識と機械学習という本を読もう

教師無しと言いつつ物差しは持ってるから実質教師はいるのや

物差しは持ってるものは教師である

ザッカーバーグ
何しに来たのか?

>>604
もっと新しいのないの?

最近の技術用語を纏めた書籍がほしいのだがおすすめはないですかね?

あっと、、分析なんちゃらは持っているからいいや。他のがあれば‥

>>608
K//L←の意味合いが分からないなら
あれは機械学習の数理を解説した良い書籍

なお読解するにはある程度の知能指数が必要

アルトマン氏、オープンAI取締役に復帰…「もっと注意深く対処すべきだった」一連の混乱を謝罪

>>612

サツケバーはどうなったんだろう?

>>611
そんなものは知ってる

soraでBlenderのオブジェクト生成出来ないかな

openaiが日本語特化gpt-4カスタムモデルを提供するってよ

国内でのブルーオーシャンが無くなったな

今更ながらデータ系列の深層学習の練習

データ系列、及びそれらについて数値演算を行って得られた同数の要素数のデータを数本まとめて
CNNをやってみた

これらのデータ群から自分の求めたい数値群を得られるようにpytorchでトレーニング

だが数本まとめたデータに「まずコンボリューション演算をする」
のが大失敗
データの一番上に元データ、その下に処理したのが数本並んでるので
これをいきなりコンボリューションしたら元データの要素が小さくなっちゃう

conv,linear,view,reluなどを含めメソッドの使用順を変えたら「ずっと良くなった」
(先はまだ長い)

国内企業全部まとまってでっかいの1つ作れと前言ったのに

大プロは失敗する、これマメな

日本の大手企業では個人の力が上に伝わらない。企業ではなくベンチャーでしか個人の才能を発揮できる土壌がない。
ただ日本のベンチャーではマンパワーと金が圧倒的に足りない。

最初から詰んでいたと見る

日本のIT産業にアメリカに対抗できる能力はない、真似するだけ

AV機器、半導体は追い越せたがソフトは真似で終わり

ジャップのソフトウェアはクソだな

サムチョンニカー?

llama3の出来が良さそう

これじゃあllama2をベースに商売しようとしてた人らがバカみたいじゃん🥸

全部同じ値になっちゃう!

を学習率スケジューリングで回避

>>627
予想の範疇
読みが甘かっただけ

llama3で訓練し直してんのかな🥸

LLMは長い会話出来ないから
文章の要約以外は
たいして役に立たないと思うんだが
商売になるんか?

GoogleがAIに無限の長さのテキストを処理できる能力を与える技術を発表
https://gigazine.net/news/20240415-google-llm-infini-attention/

そんなもん答えが出る前に人類が滅亡するわ

新着レスの表示
レスを投稿する