【統計分析】機械学習・データマイニング32
レス数が1000を超えています。これ以上書き込みはできません。
!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
↑すれたてる毎に1つずつ減るので、減ってたら3回に増やしてたてること。
機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです。
■前スレ
【統計分析】機械学習・データマイニング29
https://mevius.5ch.net/test/read.cgi/tech/1597882603/
-EOF-
【統計分析】機械学習・データマイニング30
https://mevius.5ch.net/test/read.cgi/tech/1609459855/
【統計分析】機械学習・データマイニング31
https://mevius.5ch.net/test/read.cgi/tech/1632587566/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured deepfoldてどの程度すごいの?
化学知らんからよく分からんのだけど AI開発用のマシンを自作したいです
どんなスペックにしたら業務用レベルのマシンになりますか?
CPU、GPU、メモリなど、どんな感じがいいのか教えてください 「データサイエンティストはやめとけ」というネットの声をまとめた
https://1blog.jp/16212 自作マシンは確かにきりがなさそう
でも、実際のところ高いグラボ買えばその分速くなるのかね?
ある程度のところで上限がありそうだけど プーチン大統領が「核戦争に勝者無し」と言い出したので、10月までに核を使うと思うわ。
備えておいたほうが良いと思う。 >>5
青天井って英語で言うとブルースカイとかなんの?
ブルースカイって良さげでは? >>10
調べたら skyrocketing という表現があるみたいですね。
意味は急上昇や暴騰、上限が見えないことらしいです。 人間最後は遊び
クリエイティビティを発揮してナンボの生まれながらのクリエイターなんよ 実際お金あったらこんなんやらへんやろ?
それが答えや UKI @blog_uki (2022/08/04 10:00:30)
書きました。
「トレーダーから絵師に転生する話(現在進行中)」
https://ohayua.cyou/?ssl=1&d=note%2Ecom&p=uki_profit%2Fn%2Fn22a488a441ee
https://ohayua.cyou/card_img/1554995596137619456/pWxYKk9T.jpg
https://ohayua.cyou/tweet/1554995662009143296/blog_uki
株や仮想通貨のbotterとして超有名な方も経済的余裕ができたらクリエイティブに進む
結局な、人間って芸術家やクリエイターに憧れを抱く生き物なんやな
だからこそ最初っからお金関係なしに人生懸けてクリエイティブの道を選択し突き進む芸術家やクリエイターは至高の存在として輝いて見えるんだろう 人間は消費よりも創造に人生の満足感を見出しますからね。 scikit learn をnvidiaのGPU に対応させられる? 時間のかかる学習を1か月ぐらいやってます
出かけるときはPCオフにして、戻ってきたら再開しています
今日、いつもどおり再開しようとしたら、学習が高速化しました
いつも1サイクル45分かかっているのに、4分で終わっちゃったんです
電力消費はいつもは190Wなのに、今日は330Wです
なぜか知らないけどパワフルに高速化されてしまいました
再起動してやり直しても高速化されたまま
こういうことってあると思いますか?というか、大丈夫でしょうか?
結果の信頼性が心配です あっ、思い出した
出かける前にレWise Registory Cleanerでジストリのクリーンアップをしました
それが原因でしょうか?
その程度で超高速化されることあるんでしょうか? 金払わなくても速いよ
早ければ90分、遅くとも12時間以内に計算が終わる 有名な研究者の動画とか見ると,みんなMacを使っているのはなぜですか? 彼らは個人の研究者だから
上場してる一般企業はWindowsしか選択肢にない 自分が情シスだったらごく一部のマカーのためだけにMacまで管理する手間などかけたくはない >>39
研究者やサーバーサイドの開発は,Unix使いが多い。
日本の開発者が主にWindowsを使うのは,レベルの低いクライアントサイドの開発要員だから。 そうか?
スパコンでもwinからバッチ投げるだけだぞ YouTubeでコンピュータ関係の研究者の動画を見ると,かならずといっていいほど,Macのノートブックを使っています. ですので,高いけれど,そんなにいいのなら,Macのノートブックを買おうかなとか思ってしまいます. 買ったばかりのグラボを使って学習
最初は190Wだったのに、ここ数日330W〜390Wまで上がって、今日は200W
同じ学習してんだけど、もしかして、ショートしてたりする? >>47
いや、あなたの場合、自分周りの人が使っていて助言を貰える機種にしたほうが幸せになれると思う どうせある程度の規模を越えてくればローカルではなくクラウドで走らせることになるのでわざわざ割高なMacに拘る意味はない 有名研究者の動画というのが誰のどんな動画なのか知らないけどそれはあくまで「全有名研究者の平均値」ではなく
「有名研究者の内、わざわざYouTubeとかに動画を上げたがるタイプの人の平均値」だということは理解しておくべき Macを選択する理由が『ファッションだから』『何となくかっこいいから』になってなければよいな と、ここでわざわざ書き込んでいる時点で結論は決まってるんでしょうけど。 ですね。
学生ならお勧め機種を紹介してもらえないのかな… アイフォンなら仕事ができる雰囲気を醸し出せるし、何かに応募しても採用されやすい。
見た目って重要ですよ。 一つのモデル当たりのユーザー数が多いので、情報共有がされやすい。
忙しい人は同じ服を何着も持っているのと同じ理屈。
調べる時間の節約。 台湾を支配すれば、中国が一躍、世界のトップに立つことだってあるんですよ。
韓国を一気に追い抜いてね。 >>55
スマホの選択で就職が決定されるとはソースはなんですか? 唐突にスマホの話になったんやな。
スマホで機械学習いじるやつはあまり居ないだろうなぁ。 会社の標準PCはwinだが流石に機械学習環境はLinuxにしとるわ ここ最近AIイラストの衝撃がTwitterのTL埋め尽くしてんな
マジで平均的なイラストレーター駆逐される勢い
絵も音楽も文章も人間並みもしくはそれ以上のクオリティになってきてるし、ノーコードもあるからクリエイティブも統合力・編集力が問われる時代になるだろうな キーワードで検索した結果を合成してる、て説明してる人がいて仕組みとしては違うんだけどなと思ったけど、やってることはそういうふうに見えることだし AIイラストで盛り上がりまくってるこの二つのサービスMidjourneyとDALL・E2ってどいう仕組みなん?
マジでこのまま進化したらAIが人間のクリエイティビティを駆逐しそう破壊力
人間が本気で美しいと思えるイラスト出力してくるからな、いずれちゃんと動かせる3DCGアバターなら物体を出力できるようになったらそれこそAIがメタバースを無限に作成する世界がくる AIに創造性があるか否か。
これは、無いということがわかっているのですよ。
創造性と感じる部分は、学習したデータの中に存在する、あるいはプログラマがプログラムに仕込んでいるのです。
つまり、ある意味パクリでしかないのです。 コンピュータ・プログラムが計算しかできないことは、プログラマならだれでも理解していることです。
真の乱数すらプログラムで実現することはできないのです。
https://gigazine.net/news/20220614-google-ai-lamda-sentient-nonsens/
先日話題になったこのエンジニアも、そこことは熟知しているはずであり、何か別の目的を以てこのようなことを言い出したのは明白なのです。
※たとえば、中国政府からお金をもらってグーグル・ブランドを傷つけるとか。
ですからグーグルは当然の対処をしました。 >>66
パクリの一切ない創造なんて存在しませんし。 >>68
佐野研二郎「パクリの一切ない創造なんて存在しませんし。」 >>68
しかしパクリしかできないのに創造とはいいません >>66
まあそれは人間の脳から生じる創造性も似たようなもんだろ
人間も脳に学習したデータがまったく無かったら何も生み出せないんだし 人間そのものもまた何者かに作られたAIに過ぎないからねえ
この世界がすべて計算できる時点でお察し だって、俺たちってシミュレーション上のオブジェクトだもん。俺たちがそのことに気付いたところで実験終了だから、気付かないふりしといと方が良いよ。 佐藤航陽 著書「世界2.0 メタバースの歩き方と創り方」 @ka2aki86 (2022/08/06 22:16:13) [返信:フォロー/@のみ]
AIが作った絵にTLが埋め尽くされてきてるけど、AIに絵を作らせたほうが今みたいにユーザーの反応も良好ってなると、クリエイティブの仕事も人が手でやるものではなくなるだろうな。触ってる人の熱量を見てるとそんな未来を実感できているように映る。創造力を強みに生きる人には寂しくもある話。
https://ohayua.cyou/tweet/1555905586973536256/ka2aki86 Apple、「酔わない車」で異世界へ モビリティーを深耕
> 米特許商標庁は5月、新たに車に関連するアップルの特許を公開した。「動きと同期した仮想コンテンツの没入型ディスプレー」というタイトルのその特許に記されているのは、未来の乗車体験の一端だ。見慣れた道を走行しながら、異世界のドライブを味わえる。
> ある時は警察官や逃走者の気分になってカーチェイスを繰り広げ、またある時は迫り来るゾンビを振り切るために荒野を疾走する。遠く離れたロンドンの市街地や架空の都市で優雅に車を走らせることも可能だ。歴史的な建造物を眺めながら、教養のための時間にあてることもできる。
> これらの疑似体験を実現するのは、仮想現実(VR)のコントローラーや3次元の映像を表示するヘッドマウントディスプレー(HMD)などのシステムだ。窓から景色を眺め、ラジオや音楽を聴いていた車内の時間の過ごし方に「仮想世界に身を置く」という選択肢が加わるかもしれない。
https://www.nikkei.com/article/DGXZQOUC11AW30R10C22A7000000/ 実はAIとXRは近しい!? ゲームAIの第一人者・三宅陽一郎が語る「XRに役立つ人工知能」
https://www.moguravr.com/xr-kaigi-ai/ >>68
パクリしかできないのとパクリにオリジナリティを咥えるのには天と地ほどの差がある
AIと呼ばれるものは原理的にパクリしかできない CNNのフィルタについて質問です
フィルタのサイズは3x3とか5x5とか奇数のほうがいいんですか?
2x2とか4x4の偶数だとおかしなことになりますか? 人間のオリジナリティと呼ばれるものの仕組みはパクリ(データ)×パクリ(データ)なんだけど、それってまんまAIアートと同じよね
出力も人間が美しいと本気で思える出力をしてる時点でもうAIアートは平均的なクリエイターのクリエイティビティを駆逐し始めてる クリエイターの話は正直どうでもいい
いちいち喋るより何か自分オリジナルのもの作れ >>77
そのオリジナリティだと思いこんでるものが幻想だと知るべきですね。 大昔にベートーヴェンの楽譜を入力してハッシュ法で作曲ってのがあって、同じようなことを論争してたな 時系列をうまく扱えるのはtransformerよりLSTMなの? 人間がパクリしかできないならコンピューターもAIも原始時代から存在したもののパクリということになるぞ じゃんけんで相手がグー出すかチョキ出すかパー出すか、外界からの観察のみで完璧に予測できるなら、人間は機械のように計算しかできない可能性がある。
しかし、直感的には、そうじゃないように思う。 じゃんけんが行われている時系列と別の時系列から観察すれば予測出来るよ。 ファイナンス機械学習勉強して仮想通貨bot作ったんだけど先月いきなり月次100万超えて草
今月も月次3桁超えそうだし闇堕ちデータサイエンティストになってもうたわカカ 意外と学習用に過去チャート画像使ってるやついないから割と美味しい 株とか為替の予測になぜかチャートの画像使いたがる人が定期的に出てくるけどチャートの元データとして完全な数値データがあるはずなのに
わざわざそこから情報量落としてチャート画像使いたがるの意味不明すぎて笑ってる >>91
見てるところはそこじゃねえんだなあ
だから勝ってるbotterの人やスキルに腕がある人以外は挑戦出来ないんだよ
火がつき始めたのは去年後半の海外からなんだけどね チャート画像が持つ情報の全てを元の数値データが持っていることを理解できないのはかなり残念だと思う >>95
誰もが持てる視点でしか見ることが出来ないからこそ、違う角度の視点をからエッジを見つけられるし、安定的に稼げる戦略戦術を練れる
まあここでポロリしたらエッジ無くなるだけだから詳細は言えんけど、勝ってる以上はそれが正義なのがトレーディングの世界なのよな
それ以外はただのゴミクズ そら金稼げるのは嬉しいさ
クッソ苦労したからな、何度心折れたことか チャート画像をどうこねくり回しても元の数値データ以上の情報が得られるわけないのに錬金術でもやってるつもりかな 多分テクニカル分析に毛が生えたようなことやってるんだろうけどその手の分析の元データにチャートの画像を使う意味はないんだよなあ
数値でやればいいものをわざわざ画像を間に挟むことでデータサイズを増やしつつ入力を不正確にするという精度悪化へのダブルパンチ チャートに意味があれば前処理してることになるんじゃね、しらんけど 単なる株価チャートではなく何らかの演算を行った上でのチャートにしているとして、仮にそれに意味があるのだとしてもわざわざ画像にせず数値のまま扱えばいい お前ら分かってない
過去と似ている状況があるかで次を予測するモデルで、似ている判断の処理がよく分からんからgoogleの画像処理に丸投げするんだぞ 画像的にチャートが似ていることって株的には意味あるんかね? ダブルアップがどうだとかダブルボトムがこうだとか
気にした事ないけど >>108
株屋のテクニックでそういうのはある。
だか、本来は数字でやるべきこと。絵にするのは人間が理解しやすくするため。 音声認識をスペクトログラムでやるみたいなもんじゃね? スペクトログラムを人間が確認するときはグラフ化するけど
それを何かの計算に使う場合わざわざ一旦グラフにして画像認識させたりせずそのまま数値で使えばいいよね? 画像だってただの数値データだし
処理しやすくするために色々な軸とって画像データにするのもいいんじゃないの? コンピュータってのは数値でしか考えられないんだよ。絵を見せられても、それを数値にしてから考える。だから、もともと数値だったものをわざわざ絵にして渡されても、またそれを数値に戻す必要がある。つまり、絵を経由するのはただの無駄。 >>115
普通に画像認識システムには画像渡すだろ?
何言ってるんだ? >>116
画像認識システムに渡した画像はそのシステムが具体的にどんなものであってもまずRBG(+α)の3〜4個の数値に変換されるだけ >>117
そういうことができない奴らが頑張ってやってるんだから最初から最後まで画像だぞ >>118
当たり前だろw
画像が数値データじゃないなんて言うやつがアホ
画像しか扱えないやつもアホだが自分で判断アルゴ組めないんだから任せるしかない 分足の株価をチャート化して、パターン認識で逆三尊が出た!全力買いだ!ってやってるのかw
それなら普通に時系列モデル食わせるほうがよっぽど簡単だろ?w 仮にGoogleとかが作った汎用認識アルゴリズムに適当にデータ入れればある程度判断できるようになるとして
株価予測のための汎用アルゴリズムとして画像入力のものを選ぶというのがアホすぎて いやいや、今まで正当な方法だと思われてなかったら顧みられなかっただけでなんかしら新しい結果が得られる可能性もあるだろ そんなレベルでも売買botは作れるってのが納得いかないw
パターンマッチ用のチャート画像を100万円で売ります、お買い得ですよっていう詐欺かな? >>123
値動きの数値データからは見えない範囲の空白部分が解釈や影響を与える可能性はありそうですね。
同じ事象の学習データでも数値データとグラフ画像を使うのでは生成されるモデルは何かしらの相違点が生じるでしょうし。 グラフの空白部分には何もプロットされていないんだから情報量ゼロなのに画像を元にした機械学習モデルには入力せざるを得ないだけ
仮に空白部分の影響で意味ありげな結果が出たとしてそんなものをありがたがるのはオカルト >>126
空白部分の情報がゼロであるというのが典型的な思い込みですね。
例えばグラフで分断された上下の空白の面積ですとか、複数グラフの交点が描く領域の形状などは数値データからも理論上は算出できますが、モデルが特徴量として発見し獲得する難易度やコストは大きく変わるでしょうね。 必死になってて草
しかし残念ながらポロリはするつもりないからまあ精々生産性のない罵詈雑言に精を出してくれ
今はまだ月次3桁万円のA級雑魚botterだけど今年中に必ず俺はS級botterになる S級botter達成したらいよいよゲームプレイヤー系botに着手する
特にまだ競争が少ないブルーオーシャン、シューター系botや
BCGのTCGbotは既に作ってて稼働させてるけど小遣い程度のトークンは稼いでくれてるから割と美味い 月数百万儲かってるのか。
凄いな。
働くより儲かるじゃん。 >>130
結果だけ見ればそうだけどここに辿り着くまでに割と血を吐く思いはしてきた
稼げるモデルを作り上げるまでは種銭少数で実験してきてるから損失は微々たるものやけど、お金以上に精神を削れた感はある
だからこの結実は本当に嬉しくてしょうがない >>127
わいの着眼点とは違うけど、あなたはあなたで結構センスありそうな気がする
もし気が向いたら参戦をオヌヌメします結構知的で面白い世界が広がってますよ
Twitter見れば分かるけど日本だけでも強強な人が沢山いますし刺激的です 別に自分に害があるわけじゃないんだから、そうやりたいという人のやることを否定することはないでしょう
たとえ愚かなことをやっていても、それで本人が満足しているのなら、誰かが迷惑してるわけでもないんだし、別にいいでしょう
今回のケースが愚かだという話ではなくて、たとえそうであってもという話 >>127
>グラフで分断された上下の空白の面積
>複数グラフの交点が描く領域の形状
どう考えても数値のままやった方が高精度かつ高速としか思えない でもプログラム書けなきゃ意味ないでしょ
チャートでしかプログラム書けないんならそうするしかないよ >>134
問題点は個々の計算可能性ではなく、アルゴリズムが有限のコストで特徴を獲得できるかどうかですね。
他の人も言及してますが、画像形式で与えることである種の前処理を行なっていると捉えることができ、同じ学習コストを掛けた場合の到達点は明らかに異なりますし。
投資自体が多数のプレイヤーの意思決定に依る動的なゲームと考えると、大多数のプレイヤーが参照している情報形式を前処理として取り込むというのは至極まっとうなアプローチでもありますね。 時系列のデータという概念がわからないと、そのことは理解できないよ。 やっぱこの人ID:Mm+QGPzv0 センスあるわ まあたしかに詳細でデータ量が多ければいいってもんじゃないよな
簡素化されたチャートデータのほうが軽くて有効ということもあるかもしれない >>134
何回言わせんだよw
それができないから画像でやってるんだっての
で、分かってないやつはそこまで。それでもまあ儲かる
俺ら的にはその先が重要なんだが、値動きでの判断とそれを画像にしたときとを比較して画像のほうが効率が悪いってのは値動き解析と同じ判断をさせるときの話であって、間違っちゃいない。当たり前だな
で、別に同じ判断をする必要は無くて、何を判断させるかで競い合ってるってのが現状というか趨勢は固まってきてる >>127
実際に、空白には、どんな重要な情報があるの?
空白部分の情報が、役立った証拠は? 数値データでできないのにグラフ化すればできるという発想が微笑ましい
どちらも情報量は同じなんだからやれることは変わらない
パターン認識というワードに引っ張られすぎて「パターン=画像」と思い込んじゃったんだろう 時系列データあんま詳しくないんだけど
例えば株取引で窓開けみたいな動きが起きたときに時系列データだけだと分析出来ないけど画像にしたら視覚的情報として分析出来るみたいなことってあるの? >>144
グラフ本体と空白部分に重要度の差があるという前提を一度捨てたほうが良いですね。
例えば空白部分だけ取り出したとしてもその輪郭から元のグラフの線は復元できますよね?
当然逆もまた然りで、グラフ本体と空白は等価の情報を持つ場合もあるわけです。
これはチャート画像とグラフの値データにも言えることです。
互いに変換できる情報が存在するとき、目的とする情報を取り出すのに変換を挟むのは当然コストがかかります。
機械学習においてはこのような変換を学習で見つけるのは非常にコストが高く付きますので、これを大幅に軽減する意味でもデータの選択や前処理を行っているわけです。
極端な話、グラフの数値データからの変換で理論上は取り出せても学習ではまず到達しえない次元の特徴量を、チャート画像からならば容易に取り出せる可能性があるという話です。 それあなたの感想ですよね(画像略
情報が等価なのなら、やっぱり空白いらないよね
自分で結論出してるじゃん それに、もう一つ。
チャート画像には有効な特徴量が含まれるという前提を一度捨てたほうが良いですね。
今迄のあなたのレスを読んでも、何故、画像を経由すると、良い特徴量が得られるのかという問いに、答えられていない。 >>149
私はチャート画像から良い特徴量が得られるとは一度も言ってないので合ってますよ。 人間にとって数字の羅列よりグラフの方が先が予測しやすそうに見える→コンピューターにもグラフを与えた方が予測しやすい、
みたいな素人がやりがちな典型的な間違いを犯してるんだと思う
機械学習とかやる前にコンピューターの仕組みとかコンピュータサイエンスの基礎とか統計学とかを復習した方がいいのでは? 実際良い結果が出てるならそれでいいじゃん
ほっとけよ 蟹工船の題材になった船はマルハニチロの博愛丸なんですよ。
政府と組んで悪いことをすれば儲かるってことです。 チャートだとローソク足の太さとか値上がり角度とかの情報があるけど、数値だとそれがないからな そもそも株価ってのは人間の心理が多分に影響している
投資家がチャートを見ながらやってるから数値データではなくチャートを読み込ませることに意味がある可能性はある そもそも、売り買いの判断のためのチャートのパターンが分かってるなら機械学習を使う必要ないような気がするんがなぁ。 >>158
売り買いのBOTを使うのは分かる。機械学習は要らないんじゃない? チャートの値、ローソク足の数値化した値、移動平均
こんなのがずらっと並んだデータセット作って
それで売買タイミングを調べさせるか
独身中年ならその儲けだと5~6年でfireか 上がったら買い、下がったら売りを自分でやるのが相場の醍醐味なのにな RNNの時刻t-1での出力の勾配って時刻tでのΔとVの行列積で求まるんですよね、それは分かります。
一方RNNの誤差関数は各時刻の総和であり、時刻t-1の出力勾配って時刻t-1の誤差関数の偏微分からも求まるけれどこれを使えないのは何故でしょうか? アップルが文章や画像から3次元シーンの映像を生成する技術を発表
https://www.moguravr.com/apple-gaudi/
3Dも来たか そのうち防犯カメラや写真の信憑性が問われることになるな
いくらでも捏造できる世の中になる サイバーセキュリティ周りは詳しくないから知らんけどそのための電子透かし?やタイムスタンプなのでは?
いや本当に適当に言葉並べただけだけど簡単に偽造できない様な仕組みがあったはずよね そうなんか
それならいいんだが
それすらもAIで偽造できる時代は遠くなさそうな気が そういえば攻殻機動隊が映像メディアの証拠能力が失われた世界とかでしたね。 さすがにメタ情報改竄は犯罪だからそういったAIサービスは提供出来ないと思う
今でもエロやロリやグロは規制されてるし、改竄はクラック技術だからまた別の話かと
犯罪者がクラックにAIを使うことはあるだろうけど >>172
当然犯罪レベルの話だよ
違法AI買ったヤクザに嵌められるとかならありうるでしょ
それを警察がちゃんと見破れるのか >>174
基本的にクラックは突破するためだから、その後の検証レベルでは専門家が普通に立証するのでは
そのための仕組みだし突破するってことは必ず痕跡を残すことにもなるわけで、何なら検証する側もAIを導入してるわけでさ >>174
総裁の指示で警察が嵌めるほうがありそうじゃない?
そして、日本国総裁に命令してるのが、統一教会の七精霊ってことも。 >>176
警察でっち上げはたしかにあるかもな
もみ消しとかやってるみたいだし 捏造にAIなんて不安定・不確実なものをわざわざ使うメリットないでしょ
AIの利点は自動で大量にそこそこのクオリティを確保することであって、一点物で金と時間費やせるなら手作業の方が高品質 NVIDIA Japan @NVIDIAJapan (2022/08/11 09:27:01)
つい先程 #SIGGRAPH2022 にて、本物そっくりのバーチャル アシスタントやデジタル ヒューマンを容易に作成し、カスタマイズできるようにするためのクラウドネイティブな AI モデルとサービスを統合した「NVIDIA Omniverse Avatar Cloud Engine (ACE)」を発表しました。https://nvda.ws/3QD29zc
https://ohayua.cyou/twimg/FZ1vxt0XkAEdz3o.jpg
https://ohayua.cyou/tweet/1557523950166491136/NVIDIAJapan >>179
あっという間にAIのほうが自動で大量に高品質になっちゃうよ
今の常識だけでものを考えないほうがいい >>179
手作業の方が高品質なのは現在の常識でしかないのでなんとも。
現在ですらその道のプロたちはアルゴリズムの支援を当たり前のように受けているわけですし。 森羅万象を生成し得る可能性を持ったAIエンジニアこそが真のクリエイターなのかもな
少なくとも森羅万象を創造できるクリエイターはクリエイティブ連鎖の頂点であることは間違いない AIと呼ばれるものを数式レベルで理解できない人に限って過大な評価をするよね >>184
すべて理解したうえで投資詐欺のためにAIの凄さを吹聴してる人も多いのでは? ニューラルネットの能力をここまで予測できた人なんて40年前には数えるくらいしかいないのでは?その人らは当時nnを過大評価してるといわれてたと思う ニューラルネットなんて大昔から理論は大して変わっていないしコンピューターのスペック不足がボトルネックというのはその頃から周知の事実でしょ
ニューラルネットの数式が理解できていれば大量の計算資源さえ投入すればどうにかなるのは容易に予測できる 一部の分野ではもうデータ量とそれを処理可能なハードウェアの勝負になりつつあるしな 勾配消失や誤差逆伝播法の開発を知らんのか?
マシンパワーだけの問題じゃないぞ この流れで勾配消失の解消と誤差逆伝搬処理を出すとか筋が悪すぎる
多分それらの理論も理解していないだろう 人間の脳細胞の数にも複雑さにも遠く及ばないのに
できたことが結構すごすぎ 今ではデータ数が数十億枚とかだろ?
データ収集もこの規模の学習ができるハードも普通の企業じゃ用意できん 複数の音が混ざってるmp3ファイルがあって、時間指定をしてその間にだけ含まれる成分を抽出するAIを作りたいです
時間指定は手動でできるとして、どんなネットワークみたいなものを使えばいいでしょうか?
ざっくりとした手順でいいのでやり方の方針を教えてください matlabとwavelet toolbox 購入 >>199
機械学習を使うメリットがあまり感じられませんが、通常のアルゴリズムでは駄目な理由がなにかあるのですかね? >>201
AIならできるかなと思っただけです
アルゴリズムでもできるんですね
よかったらやり方を教えていただけませんか >>202
取り出す成分が何を指しているか曖昧ですが、とりあえずフーリエ変換などで調べるとよいかと。
音声認識系の分野はまた特殊ですので、専門性の高いメディアに当たる必要がありますね。
当然近年では機械学習を用いた手法も多数ありますが、音声を扱う上で古典的なアルゴリズムによる処理は避けられません。 たとえば音楽ファイルがあって、楽器ごとの音声成分を分離するみたいな感じです
周波数が一定ではないので、AIのほうが向いているかなと思ったのですが バイオリンとヴィオラをうまく分けられるかという話ならAIかもね >>207
ただで教示することはないんじゃね?
ある程度自分で考えましたか? 他人を無償で利用することしか考えない奴の方がよっぽど性格悪いぞ >>209
LSTMとか使うのかなとは考えましたよ
あとは各成分が入っている時間帯をone-hot表現で与えるとか 結局のところ>>199はファッションでaiを持ち込もうとしてるという認識で正しい? アルゴでやり方思いつかないからAIって言ってるだけでしょ
ファッションとかいう言い方は性格悪いね >>216
素人の耳では区別がつかないくらいの精度がありますね。
何かしらのデータ作成にも使えそうです。 機械学習に使われることの多いライブラリじゃないの
そのものが機械学習なわけではないでしょう 以前のこのスレは実務家と研究者が書き込んでた感じだけど今はワナビーとベテラン気取りの初心者が書き込んでる感じだな 絵を描くAI「Midjourney」なぜ人気?
ttps://news.yahoo.co.jp/articles/382797d8c04bbf7d67f052b1b59b512b3c9fdcb3 現在の暗号って、巨大な素数2つの掛け算を見抜けば破れるんですよね
これこそAIでできそうですが、部分的にでも破れてたりしないんでしょうか? 素因数分解AIが存在したとして、「任意の数を正しく素因数分解できる」ことを証明できない 正しく分解できるかはかけてみりゃわかるよね
任意でなくても一定確率なら価値ありそう AIでもエラトステネスでも単純に素数で割り算していくのでも
めちゃくちゃ速ければ何でも良いんだわぶっちゃけ
AIでそれだけの速度出せるなら出してみろ >>232
二つの数を出して掛けてもそれらが素数同士かどうかはどうやって確かめるんだ AIを使うことが目的になるとこんな的外れな使い方をやろうとしてしまう
AIとかやる前にまず基本的なアルゴリズムぐらいは一通り学ぶべきだし
この手の分野に手を出すなら情報系の学部卒程度のことは情報系でなくても最低限勉強しておいてほしいと思う そんなことになったら情報系学部卒は全く価値ないってことになるぞw 小学生でもAI作る子がいる時代に、全てのアルゴリズムを学習しとけは無茶だろう
むしろアルゴリズム全然知らないのにすごいAI作っちゃう人が出てくるような時代がやってくると思う 誰も全てのアルゴリズム学べなんて言ってない
基本的なものぐらいは知っておいてほしい
バブルソートって何?シェルソートって何?みたいなレベルだと流石にAIとかやる前に勉強することあるだろと思う >>241
バブルソートはともかく、シェルソートを持ち出してくるとは、あなた、マニアックな人ですね…… >>230
力技以外で破るとなると効率的な素因数分解の手法を発見するしかないので、そのAIが行うのは暗号解読ではなく数学研究になりますね。
機械学習の原理的に帰納的な問題解決しか出来ないので問題に対して手法の相性が良くないかと。 AIで暗号が効率的に破れるなら世界中のネット犯罪組織が取り組んで既にあちこちで強固な暗号が破られまくって被害が多発していなければおかしい 絵を描くAI「Midjourney」なぜ人気? 「画家を駆逐するリアリティ実感」...識者が考える「人間への問い」
実用性を基軸にしたコンセプトアートの説明を踏まえ、2人は「イラストレーターやコンセプトデザイナーなど、何らかの用途に奉仕するための技術提供という職業であれば、高い確率でMidjourney等の自動画像生成ツールに取って代わられるでしょう」としている。さらに他の芸術についても、「美術に限らず、音楽でも文学でも、『売れるための』とか『ここちよさのための』などのイラストや劇伴やコピーではAIが人間を凌駕するでしょう」とした。
なお、実用性から離れた「芸術のための芸術」については、2人はさらに踏み込んだ見解を示した。
「唯一、コンセプチュアルな『芸術のための芸術』のみが人間最後の砦となり、Midjourneyのような現行のAIでは太刀打ちできないこととなります。というのは、現行のAIには自意識も美意識も無いため、『用途』を人間が設定しないと自分では動かないからです。しかし、AIがはるかに進化し、いつか自意識や美意識を持った暁には、AIだって『芸術のための芸術』を追求し始めるでしょう。そうなると、人間最後の砦もいつかは崩れ去るでしょう」
https://www.j-cast.com/2022/08/14443708.html AI自分で実装したことないのかな?って人のコメントも多いね AKS素数判定法
ttps://www.math.mcgill.ca/darmon/courses/12-13/nt/projects/Azeem-Hussain.pdf
計算時間はO(l(ogn)^(6+ε))だそうだ
優しいかなw 次のコードがあります
h=[[[]]]*10
h[0].append([0,0])
理想としては
>[[[], [0, 0]], [[]], [[]], [[]], [[]], [[]], [[]], [[]], [[]], [[]]]
となってほしいのですが、現実は
>[[[], [0, 0]], [[], [0, 0]], [[], [0, 0]], [[], [0, 0]], [[], [0, 0]], [[], [0, 0]], [[], [0, 0]], [[], [0, 0]], [[], [0, 0]], [[], [0, 0]]]
となってしまいます
どうしたら理想の形になるでしょうか? >>204
楽器ごとに分離するのは、波形を直接分離するモデルと、STFTとかでスペクトルにして
画像として分離するモデルがある。
どっちも、それぞれの楽器の単独音源をたくさん用意して、
人工的に混ぜて答えが分かった状態で学習に与えて、分離が正しい方向に行くようにする。
トランペットとユーフォニアムの2重奏を分離してみたことがあるけど、
音が調和して溶け合っている部分は分離が難しかった pythonのTabNetで、TabNetClassifierで学習してるんだけど、
model.fit(X_learn, y_train,
eval_set=[(X_valid, y_valid)],
eval_metric = ["auc"], ...
でeval_setでauc 0.7位なんだけど、model.predict(X_valid)すると、y_validとほとんど一致しないのは何でか分かる人いる? TabNetClassifierで目的変数binary 0 or 1の学習中。
だから、aucでもaccuracyでもどっちでも良いと思ってたわ。
https://github.com/dreamquark-ai/tabnet
model.predict(X_valid)するとbinary 0 or 1が表示されるけど、
model.predict_prob(X_valid)すると確率値が出る。
どっちでaucを計算してるんだろ? TPU使うのってint8じゃないとだめなの?
せっかくTPUつきのボード買ったのにたいして速くならないんで、調べてみたらfloat32じゃなくてint8にしろと
一度float32でやってモデル変換する方法もあるみたいだけど、最初からint8でやろうと思う
その場合って、float32のところをint8に変えるだけでTPU使ってくれる? AppleのM1 ProとM1 MaxはGoogle Colabを最大54%上回る結果に
https://ainow.ai/2022/02/25/262748/
M1 Mac強え
新型M2 MacBook Air新色買うわコスパ良すぎやろ TPUなんて誰も使わんからネットで調べても情報ないな
聞いても答えてくれる人いないんじゃないか ほんとかよ
コンパイルとか変えないとだめなんじゃないの
知らんけど そもそもTPUってGoogle独自の集積回路だろ?
エッジデバイス以外は購入なんて出来ないだろ RTX2060はテンソルコアってやつかな
厳密にはTPUではないよね
テンソルコアは8bitじゃなくても使ってくれるのかは知らない >>257
テンソルコア使うだけなら、float16でいい。
Mixed precision とかいうやつ 2060買えば普通にテンソルコアも付いてる感じ?
それともそれ用のRTX2060がある? GeForce RTX 2060の性能は?
ttps://www.itmedia.co.jp/pcuser/articles/1901/07/news097.html
2060から2080までみんなついてるみたい >>276
ほうほうサンクス
グラボも値下がりし始めてるみたいだし2060買おうかな
ゲーミングPCとしても手頃だし RTX2060はメモリ部分が256bitではなく192bitだからやや遅いとの評 日本の研究所も大規模言語モデルで汎用人工知能の研究すれば良いのに RTX2060でmixed_precisionやってみたけど、全然速くなんないぞ
set_global_policy('mixed_float16') >>279
そんな金ないだろ。日本じゃPFNでも赤字で苦労しとる。 >>279
インフラはやってるよ
https://abci.ai/ja/
日本の大学や企業の研究がしょぼすぎるだけだろう おまえらの好きな松尾先生もやっている
ttps://elyza.ai/ 産総研
ttps://www.aist.go.jp/aist_j/press_release/pr2019/pr20191210/pr20191210.html >>280
バッチサイズが倍にできるから、実質2倍近く
速くなるはずなんだけど
モデル構築する前にセットしなきゃだぞ。
最初の
import TensorFlow as tf
の直後くらい >>289
バッチサイズ1000 通常:234秒 mix:238秒
バッチサイズ4000 通常:186秒 mix:161秒
バッチサイズがデカくないと効果が出ないってことか? TPUつきのSBC買ってみようと思ったけど、TPUは推論しかできないみたいだな
使えねえ
SBCで高速学習できるやつとかないのかね auto mlってどんくらい強いの
詳しい人教えて下さい 前やったときはなんか複雑な構造提案してきたけど、シンプルなモデルで十分だった AWSによるクラウド入門
ttps://tomomano.gitlab.io/intro-aws/#_%E6%9C%AC%E8%AC%9B%E7%BE%A9%E3%81%AE%E7%9B%AE%E7%9A%84%E5%86%85%E5%AE%B9 俺より解ってないなって状態から、あっという間に俺を抜き去っていくのが東大マン。 Tinker Edge Tを使ったことある人いますか?
パソコンでtfliteファイルを作ってEdgeに移すみたいなんですが、移し方がわからないので教えてください LHR版は仮想通貨マイニング対策って見ましたが、機械学習もできないのでしょうか?
ゲーム用? AI画像生成が盛り上がってるってのに
このスレの存在感w >>317
このスレに来る人は今更画像生成で騒がないんじゃないですかね。 著作権侵害かどうかを自動的に判断する
という学習なら研究課題としてはありえるかも
私が気が付くぐらいだから
もう既にあるかもだけど >>321
動画や音楽の検出システムは結構前から稼働してますね。
画像の盗作疑惑でトレース元を探すスクリプトの話は最近ありましたが、話題の画像生成AIは原理的に元画像の特定や判断はほぼ不可能なんじゃないですかね。 >>322
似ているものを自動的に探し出して
類似度を数字で出すことはできそう
例によってタグをつけるのに
ものすごいお金がかかりそう >>324
教師なし学習によるクラスタリングとかならばローコストで行けるかもしれませんね。
元となった画像が違うものでも既存の作品の著作権を侵害するパターンはあるでしょうし、結局は出力物の比較くらいしか出来ないでしょうし。 nvidia-smiでのプロセスお掃除を自動化するスクリプト
というのはpythonスレでやるべきか 深層学習紹介用に作った去年のスライドにDALL-E入れてて、去年は素人受けは良かったけど、1年で大分状況が変わっちゃったな
コモディティ化というのは恐ろしいね GPUプロセスお掃除スクリプト
subprocess.runでnvidia-smi > path.txt出力
少し待ってからそのファイルを読み込む
1行内はstringだが半角スペースの塊を全て
.
で置き換える
これをカンマでsplitしてリスト化
ある列がC+GあるいはCだけになってる
Cのとき、その左隣がプロセスIDなので取得
これをtaskkillコマンドと組み合わせ
再びsubprocess.run
少し手間が減ったw 横からだがpythonで外部プロセスを実行する命令のことだな。
C言語でいうsystem 破壊的イノベーションの定義からまず説明してください。 破壊的イノベーションなんて単なる結果論だし狙ってやるものでもないからね
たまたま運良く既存業者が破壊されてくれれば破壊的イノベーションと呼ばれるだけ
狙ってやれるなら既にそこら中破壊され尽くしている イノベーション自体が狙ってやれるものじゃないでしょ?
選択と集中とかいって恣意的に金をケチる日本の経営者には無理 >>334
破壊的イノベーション(英語:Disruptive Innovation)とは、既存の市場で求められる価値を低下させつつ、新しい価値基準を市場にもたらすイノベーションのことです。 ことaiに関してはできてないんじゃね?
未だ統計的機械学習みたいなのやってる人もいるし 未だに統計の最小二乗法+推定検定で頭が止まってるのが理系ですら大半 >>329
わざわざ外部ファイルにリダイレクトして待たなくても、subprocess.runの返り値からstdoutを参照するとよい >>340
適材適所でしょ
それで十分な事もかなり多い 破壊的イノベーションって
戦後間もない頃なら既得権益者が富や権力を失っているし
モノ作りをやっている企業の社長や会長は技術屋だったので
イノベーションが起きやすかったんだろうけど
今は180℃違う状況だからね >>345
えー、、
小湊よつ葉で慰めてる奴に
励められたくないな 猿真似にならないよう学生は基礎を固めましょう。なんやかんや最前線に立つにはある程度レベルの高い数学と自然の物理現象の理解が必要です。 ここは最前線とか高い数学とか物理現象とか偉そうなこと言ってるからまともかと思いきや
実際議論してる奴等は
競技水着k-cup、Mカップ132cmの超爆乳好きとか
アイドルからAV落ちした奴を狙ってる奴とか
アニメ専門ポイ奴とか
破壊的イノベーションを語る前に
違うベーションが破壊されているんじゃないかっていう奴ばっかじゃん NVIDIA H100 Tensor Core GPU ほすぃ ガチでしらんがな。
どっからテキトーに持ってきた。 社会人文系で体系的に数学を学び直すのは難しい時、機械学習とどう向き合えばいいだろう。なにを学べば社会実装に役立てるのかわからん そういう人には統計学は最強の学問[数学編]をお薦めする
数学を機械学習にのみに絞って最短で中学数学から学び直せるから挑戦してみるといいよ
これでダメなら機械学習キッパリ諦めて他の道選べばいい
人間それぞれに個性や才能が必ずあるからね
スナフキン「大切なのは自分のしたいことを知っていることだよ」
このセリフこそが人生で一番大事、他はどうでもいい
社会に煽られた欲望じゃなく、自分の芯から出た欲望なのかは試行錯誤を繰り返さないと自分の輪郭は見えて来ない >>351
自分で実装するまでの勉強もありだが機械学習やってる大学生と仲良くなるなんてのもいいと思うぞ。大学院生は多分忙しくて相手してくれないから大学生がいいと思う。
大学生で機械学習というとプログラミング全振りという感じだろうし、文系分野との融合でのの社会実装はいい経験になると思うよ >>351
原理を理解していなくても使えるからこそ技術なのであって、最初は難しいことは考えずに使ってみる程度で良いと思いますよ。
その上で必要に応じて少しずつ学んでいくのが一番の近道かと。 >>349
A100で組んだ方が安上がりになるよ。
この前、よく見るAI開発系の動画見てたら新規にA100でクラスタ組んだとか言って新しいサーバーを公開してた。
処理性能はTop500で70位だとか言ってた。
規模は19インチラック10台くらい anacondaにconda-forgeもチャンネル設定しないと
tensorflow-gpuインストール後にopenCVインストール出来ないなあ
というか最初に複雑なライブラリをインストールした方がうまく行くなあ colabで昨日まで動いてたコードが今日はoutofmemoryになるのマジでなんなの?
同じGPU引いてるんだけど??? JupyterでGPUを動かすとブラウザのタブを閉じた後もプロセスメモリ消費されたまま
spyderだとアプリ閉じたら全部消えるか
じゃあJupyterでもブラウザ丸ごと閉じれば良いのかな
他に見てるタブとかあったら厄介だな pytorchがメタからlinux foundationに移管 >>359
Colabは単純な仮想化環境ではなくダイナミックリソースアロケーションという方式を用いてる。
この場合、メモリなどのリソースは使用者間のリソース使用状況に応じて均等になるように配分される。
つまり、リソースは毎回同じ分が配分されるわけではなく、過去の使用状況が大きいと
新たにセッションのリソース配分は減らされる。
浮いたリソースはその利用状況の少ない利用者に回される。
ダイナミックリソースアロケーションが原因でアウトオブメモリーエラーが発生した場合は
バッチサイズを前回動作時よりも少なくするか、リソース配分の優先順位が戻るよう時間を空ける。
もしくはメモリ割り当てが元から多い有料版に切り替えることが必要。 >>366
自分はPytorch使ってるんだけど今後何か影響出てくる? Linux使えばpytorchの継続使用は問題無いだろ
C/C++だとnvidiaのセットアップが面倒くさいけど Linux Foundationに移管するからってLinuxじゃないと使えなくなるわけではないだろ?
そもそもWinで機械学習するやつが居るのかは知らんけど linux foundationの支援を受けてwinバイナリ作るのも変じゃん Winでやってるけど、Update関係が動いたときにエラーで止まることが多い
Win糞だなと思いつつなぜか使い続けてるバカです Windows使ってる人はTensorFlowへ移行しましょう。 いらんでしょ日本じゃ無理だったってこと
海外勢が使ってくれないと無意味なんだは pytorchの移管先はLinux FoundationじゃなくってMetaが作ったPytorch Foundationだよ。
既にPytorch FoundationにはGoogle, Nvidia, Microsoft, AWS, AMDが参加を決定してる。
論文発表件数の比率では既にPytorchが優勢になってるが、今回、Facebook色が薄れたことにより
今後はPytorchが優勢になる可能性はある。 >>379
WindowsでTensorflow使ってんだけど、移行って何? 社会実装
独立行政法人科学技術振興機構(JST)の社会技術という概念から生まれた言葉である。社会
技術とは人間や社会のための科学技術という意味であるが、社会実装とは得られた研究成果を社
会問題解決のために応用、展開することをいう 社会人とかもそうだけど、とかく日本って社会〇〇って概念作るの好きだよな
もう失われた20年どころか30年って言われてるんだから、社会〇〇とな社会と紐付けた概念逮作って、日本人を縛り付けるの止めた方がいいと思う
結局社会人って概念は資本主義経済では30年以上も通用することが無かったのだからさ
特にこれからは個の時代、もっと欧米みたいにシンプルにして社会概念や通念で国民を縛り付けるのやめようぜ
資本主義経済を取り入れてるのに、中身は社会主義や共産主義の概念だと整合性ないしおかしいだろ?だから綺麗サッパリと切り捨てるべきなんだは 日銀が株券を買って企業をコントロールし、個人にも金融を薦める。
アベノミクスはそんなことをやってた。
技術者的な論理思考で注視すると、彼らがやろうとしたことは国家社会主義の樹立ではないか?
個人が金融をやって株を持つということは、結局のところ、労働者が企業を所有するということで、それを政府が推進するということは、まさに国家社会主義。
パヨクの皆さんが安倍ナチスと言っていたのは、そういうことではないか?
つまり「奴は労働者の味方だぞ」と。
もしそうなら、国家社会主義日本労働党を作る気だったのかも。
改憲にこだわったのは、ナチスに倣ったのかも。 ほとんどの日本国民はアメリカを味方だと思っているけど、実際にはただのジャイアンでしかない。
いつかはジャイアンからの解放を目指さなければいけない。 東大・財務省が中国のスパイで、
日本の借金が1千兆円あるとか、マスゴミと結託してデマを流して、
30年間も緊縮財政を続けて、軍事費を減らして、中国に攻めさせる
池上とか、御用学者の浜田・伊藤、岸田ロボットを操作している木原などの東大系。
日テレの経営者も、官僚ばっかり
財務事務次官も、緊縮財政しないと財政破綻すると言いふらしている >>393
中国はそこまで日本を重視していないのでは?
世界550か所の孔子学院中、14か所が日本にある。
国の規模、中国との距離を考えると、明らかに少ない。
中国は日本を軽視する傾向に見える。
中国以外の孔子学院第一号はソウルに出来た。
日本の国政を最もコントロールしてるのは、朝鮮だと思う。
ナショナルスクール、朝鮮学校の数は、孔子学園の比でない。 財政再建でよく参照されるのがデンマークだけど、財務省もデンマークの財政再建過程について資料を出してるので、検討している可能性がある。 日本の借金が1千兆円あるのは嘘とか、YouTube の動画に一杯ある
高橋洋一・三橋・中田敦彦とか おそらく朝鮮の息がかかった人たちだろな。
借金をチャラにする方法があったとしても、チャラにすれば信用を失う。
日本に残ってるのは信用だけなので、これを崩せば、あとはどうにでもできる。 いい年した大人が勉強の情報源はYouTubeとか結構イタいからあまり言わない方がいいぞ 大凡この系統の先々は見えてきた感じがする。残念ですがこの国は主導権を握る側ではないようです。
それでも開拓に勤しむ方々には頑張っていただきたいと思います。 プログラミングの仕事の経験はないのですが、プログラミングはかなりできます
機械学習の仕事でフリーランスしようと思うのですが、どうやって仕事をとってきたらいいでしょうか? >>405
とりあえずクラウドワークでも漁ったら良いんじゃないですかね。 フリーランスって営業も自分でやるってことだから営業能力ないなら無理だよ mlだと、コーディングはできて当たり前。ちゃんとレポートを仕上げられるかどうかだしな 機械学習案件は重要機密を扱ったり新規事業に深く絡んだりすることが多くオープンなクラウドソーシングサイトにはほぼ流れてこない
フリーランスなら複数案件をこなした実績や新規案件が出た時に話が貰えるコネが最低限必要だと思う
未経験なら取り得る方法は以下の2つ
[正攻法]機械学習案件をメインに扱う企業に所属して実績とコネを作る
[近道(だたし有能に限る)]個人開発の成果をブログや専門メディアの記事で公開することで実績とし、業界関係者の集まりに積極的に参加するなどしてコネを作る 最近は現場レベルでもML使えるようになってきてるよね
自分の周りも実験やシミュレーション結果の解析に、深層学習含めて機械学習を普通に使ってる
SOTAの即適用が求められてるわけでもないし なんとかdiffusionの作者さんも前職は金融だったのに自作のAIプログラムを公開したことがきっかけで
ベンチャーキャピタルから出資の話が舞い込んだらしいよ もはや現場ではデータサイエンススキルを習得者が増えすぎてMLドカタ状態になりつつある
やっぱいつの時代もクリエイターが一番重宝されるわ
誰でも習得できるスキルに価値は無いって事かね クリエイターって、具体的にはどのようなことをする人? わいは3DCGクリエイターやな
ゲーム業界なんやけどゲームグラフィック全般(モデリングからアニメーションまで)を担いゲーム内の世界観を創造しとる
ゲームではグラフィックの出来栄えが売上に直接影響及ぼすからやり甲斐はあるで
まあゲームに限らず漫画アニメ映画すべてのコンテンツの可否判断はまず見た目から入るしな
鬼滅があそこまでヒットして流行ったのも2Dと3Dをセンス良く織り合わせた圧倒的な表現力のアニメの力なのは言うまでもなく 元はプログラマーやったんやけど余りにもつまらなさ過ぎて、専門に入り直してクリエイターデビューした
そしたらまあ毎日楽しくてしょうがないって感じ
人間は遺伝子レベルでお絵描きなどのクリエイティブな事が本当に好きなんだなと実感した瞬間だったわ ディレクションとTA的な立ち位置も兼ねてるから去年は1200くらいだったかな
コロナ禍になって需要が急激に上がってスマホ・PC・専用機問わずバブリーな雰囲気 >>420
アニメで言うと動画マン?モデリングからだと原画担当より下流側かな。動画マンは年収300万円ほどだから、ゲームやったほうが良さそうやね。 >>422
ゲーム業界の3DCG専門のTAは機械学習をどの部分で使ってるんですか? >>425
いな何やってるか書いたやんけw
普通にジェネラリストだよ
>>426
パイプラインとかテクスチャ生成とかアニメーションかな
あとフェイスキャプチャも今取り組んでる >>429
なるほど、確かに機械学習が強い分野ですね。 悪いけど、そこはクリエーターとは言わないな。
キャラデさんの作ったキャラを打ち込みしてるだけじゃない。 打ち込み?wそんな事一言も言ってねえけど>>425の発言にしろ君は何かと自分の想像の範囲内で勝手に他人を定義する癖があるみたいだね
何を言われようと俺は3DCGクリエイターとしての矜持がある 敢えて言えばここは機械学習の発展事項を書き込んでほしいかな。
個別の企業案件はどうでもいい。 ここで言うクリエイティブ(創造性)とは新しい技術をいう。
ただ絵を突っ込んでるだけではクリエイティブとは言えない。 >>432
悪いけど、貴方のような作業をする人のことはCADオペレーターと呼ぶんじゃないか?
クリエーターじゃなくてオペレーター。 そうだねクリエイターじゃない感じだね
メーカーだと一般職が行うオペレーターに近いね クリエイター、て言い方にむず痒いものを感じてしまう >>439
ポリフォニー・デジタルとか3D系の大手ゲームスタジオだったらあると思うな
この辺りのゲームスタジオとかだろおそらく3Dゲームエンジンから自作してると思うし
1本の開発費は50億とか100億くらいかけてるから給与水準は相当高いはず
最近もレーシングゲームのAIで人間に勝利したとか記事になっていた位で
内部でやってる取り組みはひょっとしたらプリファードを超えてるかもしれない 呼び方で言えば、エンジニアというとITエンジニアを指してることが多いのはどうかと思う 3DCGのTAはクリエイティブを要求される割合と論理的思考を要求される割合が丁度良くミックスされて面白そうな仕事ではあるとは思う。
ゲームや映像への愛が強いなら楽しいと思うな。 テーチングアシスタント、補助教員じゃね、知らんけど TechnicalArtistとかの略ですね。
ゲームや映画業界でグラフィックス関係の基幹技術を扱う人ですね。
エンジニアとの境界は曖昧ですが、アート分野の知識が必要なのでそちら出身者が多く比重もそちらよりだったかと。 それでここでそれを提示して何のメリットがあるのか。。
三次元連続変換という意味でリー群の話でもしてくれるのか。
あるいは自己満か何か。 誤差逆伝搬ですがXの更新量(ΔX)を考えるときにXの勾配(ΔW^T)にはηをかけないのはなぜですか?
EをWとXとBの全微分の式で書き下すとすべてにηをかけないといけない?と思ったのですが。 RTX4000番台発売か
来月から手に入るようになる、という
しかし3000番台ではPyTorchが使えるようになったのが発売3ヶ月くらい後
tensorflowは発売から半年くらい後
この分だと来年2~4月くらいにそれらが使えるようになるか
あるいは即使えたり?
2000番台の時もちょっとトラブルがあったらしいな 機械学習に詳しい諸君に聞きたい。
今12世代Celeron &内蔵グラフィックでプログラミングをしている。
ただ、機械学習をやりたくなり、グレードアップを試みている。
そこで
i7 12700 + GTX1660Super (中古)
i5 12400 + RTX3060Ti (中古)
のどちらかで迷っている。
CPUクーラー、マザボ、メモリ、電源等は流用で上記に耐えうる性能はある。
平たく言えば、機械学習用マシンとして、CPUとGPUのどちらに重きを置くべきか、ご教授いただきたい。 >>454
何十時間も掛かる重い学習しないならGoogle Colab Proで十分 >>454
でぃーぷらーにんぐするならGPU
それ以外ならCPU グラボ適当に買うと電源が不安定になったりするんだよなあ
換装より一から新規マシン自作したほうがよさそう >>454
その程度の知識ならやめとけ金ドブだ
Google ColabかOCIのGPUインスタンスを使え 横だけどGoogle Colabって便利ね、自力でやるのと境目はどの辺? >>464
作りたいモデルが許容できる学習時間を超える時では。 >>454
GPU演算を行う場合にはCPUはほとんど利用しない。
したがってGPUを使った機械学習処理をする分にはそのどちらのCPUでも結果は大した差はでない。
ただし、データの前処理を行う場合にはCPU演算を行う場合が多いのでCPUはスレッド数が多い方が有利。
(前処理はマルチスレッド対応のプログラムを書けるとことが大前提で)
また、同様の理由で大量のデータ処理を行う際は主メモリも多いほど有利となる。
追加するとtensorflowはv2からAVXが必要要件となったので、あまり古いCPUだと動かない。
次に、GPUの選択に関してはそのどちらのGPUもメモリ容量が小さすぎるため最近のラージモデルの機械学習には適さない。
最近のラージモデルの機械学習にはGPUの搭載メモリは最低12GBは必要。できれば16GBはほしい。
つまりGPUは3080 12GBか2060 12GBが選択可能な最低要件の選択肢となる。
ちなみに最近流行りのStable Difusionとかの場合、機械学習の処理には、250TB分のイメージデータ
をA100 40枚の構成で行ったと作者は言っている。作者は機械学習の処理だけで
最終的に全額を個人でクラウド業者に60万ドルを支払ったと言っている。 >>451
リー群の性質を持ったリーマン多様体とさとか最近のSFの映像によく使われている印象だし、数学得意なTAはリー群ぐらい勉強してると思うよ。
回転をなんとかうまく制御できないかと考えるとぶち当たる壁だから。 >>467
PCだと辛いですねえ
デスクトップ用でRTX2060の12GB版、RTX3060、RTX3080の12GB版、RTX3080ti、3090、3090ti
ノートPCなら3080の16GBか3080ti
こんなのじゃないと無理と
後はA2000とか i7 4770
GPU ロープロファイルの安いやつ
メモリ 16GB
の構成で50MBのcsvファイルのデータセットを整えてる
30万件程度の行の
配列の3行をまとめて平均値を出してstringに入れる
これを配列の最後までループ処理
それだけの作業なのに10時間以上経ってもまだ終わらない データ前処理の段階ならCPUの処理速度が
物を言うが、CPUリソースの100%は使ってはいないので
並行処理にすると何倍か速くなる
ただ並列処理を多くしすぎると逆に遅くなる閾値が存在する
メインで使ってるPCだからCPU使用率上がりすぎるのも困るんで
単一スレッドで処理したがこんなに時間かかるとは思わなかった core i7としたら
tensorflow2が動くのは4000番台からか6000番台からか8000番台からかどれでしょう https://www.youtube.com/watch?v=MulTGYX5JS0
こちらの動画を見ながら、プログラムを組んでいるのですが、
「df.head()」の部分で「name 'df' is not defined」というエラーが出てしまいます。
動画を観ても、dfという変数が宣言されている部分が見つかりません。
どうすればこのエラーを消せますか? >>476
あなたの質問に答えるために、わざわざ動画視聴して考えてくれる奇特な人は相当珍しいと思うよ 未宣言なのが問題だと分かっているのなら宣言すればいいだけでは? >>479
動画を見れというより、あなたのソースを貼ったほうが早いと思う 動画と同じつもりでも、自分が一行抜かしてたとかあるからな
たしかに貼るのが早い
どうせパクリコードだから貼っても問題ないし 微妙な気持ちになった
教えてあげたい自分と、何フザケてんのと憤る自分とで import pandas as pd
df = pd.DataFrame(配列)
じゃないかな常識的に考えて、動画はちゃんと見てないから何のデータを入れてるかはわからんが、 sklearnのfit()
って繰り返したらその学習は蓄積されて
predictの結果が変わっていきますか? 知ってる。こないよ。
強化学習はただの関数って認識してない、ちょっと頭がおかしい人たちが言った話だから。 >>498
基本原理はいろいろなところから拝借されてる。微分幾何であったり関数解析であったり。 既存の機械学習ライブラリにデータ突っ込むだけの単なる作業員に数学が不要なのは確かだと思う 人間の知能を超える、の定義が曖昧
囲碁AIとか既にシンギュラリティとは言えないのか? 戦前の軍艦の射撃用方位盤の時点で、射撃用計算の分野では人間を超えてるね 人間を超えている・いない、なんて大して重要な観点ではない
餌も給料も無しで文句言わず24時間働くんだから人間以下の能力でも十分使い物になる >>506
人間のように学習結果を応用できる強いAIでないと、シンギュラリティは起こらない
囲碁AIは何も発明はできないよ シンギュラリティ
シンギュラリティ(Singularity;技術的特異点)とは、アメリカの発明家で人工知能研究の世界的権威であるレイ・カーツワイル博士らが示した未来予測の概念で、一つの仮説として想定され得る、人工知能(以下AI)が人間の能力を超える時点 や、それにより人間の生活に大きな変化が起こるという概念のことを指しています。
もう少し詳しく説明すると、テクノロジーの加速度的な進化の結果、いずれコンピュータは人間の知能を超える「超知能」を獲得するようになります。そして、人間にはその「超知能」がどのように振る舞うか予測も制御もできず、その甚大な影響によって社会や人々の生活に決定的な変化が起こると考えられているのです。
人間を越えるの定義がない カーツワイルは有名人だが人工知能研究の世界的権威ではないよ
h-indexで見るとルカンが100。
スタンフォード教授で元Google AIの最高責任者のフェイフェイリーでも100。
日本人だと松尾の50が最高くらい。
つまり、h-index100くらいが世界の最高権威となる。
一方、カーツワイルはそもそも研究発表はほとんどないのでh-indexは20くらいしかない。
カーツワイルはどちらかというとビルゲーツやジョブズみたいな企業人だな
シンギュラリティは専門の研究者がいいだした用途ではなく、
業界の有名人が言い出したマスコミの流行語的な側面が強く、それゆえに反論や論争の的となっている。 シンギュラリティを語った文脈では企業人というより思想家の類じゃないか
2001年宇宙の旅で有名なアーサー・C・クラークが衛星通信や軌道エレベーターの実現を確信して作品として発表したのと似たようなものではないかな >>511
というか、知らないことは知らない、といえる AI はありませんか?
自分が習ってないことは「わかりません」といえる AI は? >>519
Siriだっけ
すぐわからないとか言うのは >>513
人間と同等の創造力や応用力があるコンピュータ、というのが定義だよ
その能力があり、ハードウェアを増やして人間より速く稼働させれば、あとは自動で加速度的に革新が進む
問題は、そんな能力を持つコンピュータの設計方法を誰も思いついていないこと >>523
この定義は?
>人間と同等の創造力や応用力があるコンピュータ 現在のAIが知能と呼べるものかということについては1年程前にマイケルジョーダンが
発言を行ってAI業界で話題を集めた。
ジョーダンの指摘の内容は現在のAIは極めて限定的な認知力の範囲で有効なものであり
創造性という観点では知性は皆無というものとなる。
つまり、彼の見方ではAIは既知の学習の範囲内において画像認識とか限定的な領域で
人間よりも早く処理をこなせるというだけの存在であり、本質的な意味での知性=創造性
は皆無に近いことになる。
この発言が注目を集めたのはジョーダンは教師なし学習の分野ではAIのトップ研究者であり、
被引用数では深層学習の父とも言えるルカンを超えるAI学界の頂点にいる研究者となる。
ただ、おそらくあえて言わないだけでルカンやヒントンも同じ見解じゃないかと思う。
もっとも/r/machinelearningとかでのディスカッションだと今更、深層学習を全否定され
てもな、という否定的な意見も多かった。 >>525とりあえず皆に伝わる共用の言葉で語ってください。
特に数学は世界でただ一つの共通語です。 えらいひとがいったからといってただしいわけではない >>525
ネタを書くならもっと面白いのをお願いします 66歳か
年齢高め
人間の意識とAIの意識のようなものを区別しようとしたら
結局は身体性とかになって
じゃあ各種センサーとモーターでシリアル通信の入出力させてこれも参照したら
何が違うんだって事になる
文脈がどうのと言うならニューラルネットを恒久性の強いものに置き換えるか? >>527
シンギュラリティを起こすためには自我は必要ないよ
今までないものを創り出せる能力さえあればいい
そのためには自我が必要、と解明されれば必要になるけど BIツールとかエクセルとか書いてあるレベルの求人に落とされる・・・・ 人間だって自我があるかなんてわからないだろ
哲学的ゾンビみたいな思考実験もあるし 状況を入力して
有効な解、アクションを取れれば
シンギュラリティをクリアでは?
自我とか身体性とか関係あるのか? intelのArcがまもなく出るが
pythonで使えるライブラリも無い状況か
cudaそのまま使えるなんてあり得んだろうし
AMDもROCmというのを出しているが利用者少なくて厳しい
ところで2年ほど前に「chainerはRTX2000番台以降のGPUを使えない。
逆にPyTorchは2000番台からしか動かない」と見かけたが
chainerを2000番台で動かした例はあるみたいだし(さすがに3000は開発終了後か)、
PyTorchもドライバのバージョンを守れば動くという話だなあ しっかりと構造考えながらプログラムするならPyTorchだからなあ
そうこうするうちにRTX4000番台が出てしまう Pytorchはネットワークの出力サイズをみまちま確認しながら書けるのが好き 統計、機械学習と書いてある求人でも環境がととのってなくて、
SQL,データ加工のハードスキルが必要と、あとBIw。データ加工ノックやったくらいと言ったけど反応は微妙だった・・・ ryzenのノート買おうと思うんだけどAPUでもgputensor使えますか?
ググるとrocmとかいうのを使える? >>543
読みにくすぎすまんwBIツール。
データ解析を使うのは統計学を学んだ人だけではないのでごくごく自然な流れなんでしょうね。 グリッドサーチ使って最適化しようとしたら
なんだか知らんがfitの所でエラーが出る
第一引数の特徴量の次元構造は2次元配列を渡しているのだが
それが駄目らしい(もちろんKNeighborsたrandamforestやMLPC単独でfitさせると
問題は生じない)
グリッドサーチ エラー等でググっても分からなかったから
グリッドサーチ的な物をスクラッチしようとしたら配列*配列*配列・・な総当りのプログラム書くのも
結構大変だ
なんだかんだ2日掛かった ないない。。
日本政府が騙されて量子アニーリングに投資する限りは発展しない。 ネタ、量子コンピュータは既に作られている、量産化されかどうかは知らんけどw [0,[1,[2,[3,[4,[5]]]]]みたいな形をしたデータがあるのですが、もっと賢いデータ形式はありませんか?
データ出力しても見ててわかりにくいです だから量子アニーリングはまがい物っていうてるやん。政府は騙されて投資してしまったけど、ゲートウェイ方式に転換しない限りは発展しないだろうね。 ハイパラチューって現場だとどうやってるんですか?
全数探索、ランダム、ベイジアン最適化?
optuna使うだけ? googleとかは自腹でやってるのに、NECだか日立だかポンコツ共は量子補助金のおねだり、トンネル効果で量子コンピュータと何の関係もないゴミの餌に そもそも理論的に解の妥当性の補償もない量子アニーリングに投資する輩がマジ信じられん。
少し調べたが最近はD-waveってベンチャー、アニーリングに見切りつけたようで。
https://blueqat.com/yuichiro_minato2/ac036704-f855-4a22-9ec3-98a237f34dbd 今現在、日本政府が投資してるのは量子アニーリングっていうまがい物。
つまり日本で量子コンピュータなんて発展しなす。 JTCなんてどこも先進的なことやってると謳いながら国にベッタリの補助金漬けだというのは周知の事実 知的財産の用語の一つに『阻害要因』という言葉があるんだけど、ここまで綺麗に日本の技術発展を阻害している技術要因()ってなかなかないよね。 >>564
シミュレーテッド アニーリングはNNの方法 >>567
?、、えと‥。どこから突っ込めばよいのやら。
スレ違いの発言となりますが量子コンピュータは機械学習ではありません。
コンピュータは確定論でなければいけません。NNと一種ならばなおのこと一般向けとして使用してはいけませんね。 まあ量子アニーリングは提唱されている方々の解説にかなり問題があるように見える。
出版されている本のレビューとか見てると、よくもまあ簡単な言葉に騙されている人が多いなと。 >>563
d-waveには当時からかなり懐疑的な視線が向けられてたような
むしろ日本は先を越された、彼らを追い返したnecは駄目だ、とかいう言及があったはず そうですね。d-waveがゲートウェイ方式に傾いたことで今後はご察し
富士通も日立もNECどうするだろう?
いずれの量子A研究グループも現在ほぼ成果が出てないのではないかな?
私は彼らの普段の仕事を何も知らないが量子Aで何も結果が残せないことを数学は保証する。見積甘すぎ 焼きなまし法ってボルツマンマシンとかと同じでしょ?
なんでそんなものが取り上げられたのかよくわからん
量子ゲートも誤り訂正が実質無理なので実用は遥か先というか
何らかのブレイクスルーが起きないと無理 そうですね。ボルツマンモデルが近いですね。
また東工大の偉い人曰く、きょくしょかいからほかのきょくしょかいへとんねるこうかですりぬけるだそうな。
意味不明。 >>575
Stochastic Relaxation, Gibbs Distributions, and the Bayesian Restoration of Images
https://ieeexplore.ieee.org/document/4767596 >>577
ああ、はい。
第一原理の理論ではないですね。
意味わかる? >>580
物理法則の根本となる仮定の部分。
https://ja.m.wikipedia.org/wiki/%E7%AC%AC%E4%B8%80%E5%8E%9F%E7%90%86
例えばギブスエネルギーであれば、『状態和を表す物理量はf(x+y)=f(x)*f(y)という形を持っている』という仮定がある。
f(x+y)=f(x)*f(y)は物理現象として真ですか? >>582では581の本文を変えましょう
第一原理とは自然科学の物理法則の根本となる仮定の部分。その仮定を真としたとき、その仮定から演繹された現象は全て真である。
例えばギブスエネルギーであれば、『状態和を表す物理量はf(x+y)=f(x)*f(y)という形を持っている』という仮定がある。
>>580もう一度問いますが
f(x+y)=f(x)*f(y)は物理現象として真ですか? >>578
ところで何で第一原理を持ち出したんだ? >>583
物理で第一原理と言えば
物質の多体のシュレディンガー方程式を近似によらずなるべくそのまま解くこと
だが 忖度して言うと
量子コンピュータで解く問題に対して、それを量子力学の多体問題として翻訳して、それをそのままで解くこと
てな感じかな、知らんけどw ん?なんかwiki避けたら変な方向に行ってるな。
違いますよ。量子の問題とは関係なく『第一原理』という言葉は>>583の意味を指します。シュレディンガー方程式の多体問題を解くシミュレーションは『第一原理バンド計算』と正式には分類されます。
ここで第一原理を取り上げたのは
量子Aの原理が第一原理を無視った原理であるためです。
まーたく解の保証はないのに日本の企業お馬鹿さんたちは、量子Aの簡便なモデルに取り憑かれ無駄なお金を投資してるというわけです。 平均場近似以上の解を求めるということか、ニールセンも第10版だしね 計算機の世界、悪貨が良貨を駆逐する、シリコンが生き残る、分からないw midjourneyを素人にどう説明すりゃいいの? 役に立つことあるかなと思って2年ぐらいこのスレ見てたけど皆無でしたw ここに書き込むのなんか全員サワリだけのワナビーでしよ チラシの落書きに何を期待する、という見方
何をしたいのか分からないのか、という見方
・・・ synthesizer vてなんであんなに品質高いの? 一ヶ月もかけて書いた独自アルゴリズムがちゃんと動作するか気になって
どうしても実行中のkaggleのカーネルから目が離せない
すごく無駄な時間なのに目が離せない マジでどうすればいいんだろう
みんな、実行時間が2時間を超える処理の実行結果が気になって
別の作業が手につかない時にどうやって頭を切り替えてる? Windows Updateが動くたびにVSCodeのウインドウが落ちる 外付けGPUではゲームは出来るが深層学習は出来ない、って聞いていたし信じ込んでいたのだが、
今ちょっと調べたら成功している例がちらほらというか
勝間和代氏が成功してるんじゃないのw
もちろんスピードは落ちるけど 画像認識の練習として、4文字のひらがな画像認証キャプチャー突破に挑戦してみたのですがあっさりほぼ100%認証できました
ですが・・
ノイズのかかったキャプチャーに挑戦してみたところ急に段違いの難易度になりました
こういうのです
https://i.imgur.com/YJHh9ul.jpg
さすがにこういう、ノイズも文字の一部に見えないこともない、みたいなやつだと難しいですよね?
何か良いアイデアはありますでしょうか
練習で足止めされるのも嫌なのでもう諦めて次行こうかなとも思ってます 一応やったのは
・正解データに近い”ノイズ+4文字ひらがな”キャプチャを生成する
・50px×50pxで一文字ずつ分割
みたいなのを1万枚(×4)くらいです
思ってた以上に、前処理で手こずりました・・
ざっくり直面した問題は
・一文字をしきい値で座標で区切ると、隣の文字が微妙にかぶる
・キーとノイズのしきい値が区別できないのでノイズがキレイに取り切れない(たとえば、”は”のバックに取り切れなかったヨコ線ノイズがあると”ほ”に見える)
たぶんこの部分をクリアできたら行けそうな気がします
やれることを考えると
・ある程度は「一文字がどの座標から始まるか」「一文字の間隔」に規則性があるので
ざっくり一文字を区切り、4隅の独立したノイズを文字ごと消す
・”は”や”ほ”、”に”や”た”など、ノイズにより二面性三面性を現すキーを洗い出す
・一文字ずつの特徴量を算出する
くらいかなと画策してます
あとは上とは別のアプローチで、そもそもペアデータレスな拡散モデルでどうにかできるか考えています 深層強化学習だとエサを与えるわけですが
それって人為的ぽくないすか? 前処理で特定のパターン排除の意図的な処理を加えるとバイアスが生じる
それで処理が通ったとしてもそれで処理可能なのは、ある特定のパターンの画像のみとなるからね
これをやると特定のパターンごとのルールが必要な80年代のルールベースのエキスパートシステムみたいになる。 4文字ひらかなキャプチャの例でいくと
強化学習の過程で、正解のご褒美与えるタイミングのルールってほぼ無し?
50音×50×50×50の確率で正解
だけだとめちゃくちゃ時間掛かりそうな気がする
「画像のこの部分から探してね」「薄かったり途切れすぎなやつは文字じゃないぞ」
みたいなヒントを与えるのも強化学習的には好ましくないってことかな
まずは、先頭の文字っぽい場所だけ当てたら褒めて学習終了
つぎのステップは、先頭の文字をドンピシャで当てたら褒めて学習終了
ってやれば少なくとも先頭の文字は行けそうだけど
これも作為的だよね
2番目、3番目であろうがどこから当てても、当てたら褒めてエサを与えて
ヒントは与えずひたすら見守る
だと思うけどめっちゃ時間かかりそう・・ 機械学習とは、強化学習とは、いったい何なのかをよく考えたほうがいい >>610
興味があるのですが、このCaptchaはどのライブラリですか? あんまりあれこれ親が手出しすると、子供は学習する気なくなるよな >>614
俺だったら四文字を通常生成したとき
背景の色を各文字ごとに大きく変化させて
それから文字の歪みとかを加える
そしたら文字の背景色を教師データとして
各文字の範囲を特定させるのを学習させる 「AIが人間をロックし正確に狙う機関銃...」イスラエルが開発、パレスチナ難民キャンプに配備した [朝一から閉店までφ★]
https://asahi.5ch.net/test/read.cgi/newsplus/1666433077/ 特定の人はゴリラと間違われて認識しないパターンありそうだな
マイナス面もあればプラス面もある >>621
割と提案の方法でいいと思うけどな。強化学習って子供育てるみたいなもんだから まあダメ出しばっか、褒めてばっかじゃどうしてうまくいかないかは説明できるところはあるわなw 俺は適当に折ってから丸めて筒状にしてる。収納するのが楽。 オセロの強化学習をしてるんだけど、
自己対戦をしているときに突然グラボのファンが回りだすことがしばしばある
チェックしてみるとグラボが認識されなくなっていて、仕方なく再起動するはめに
原因わかる人いる? 熱ですね。グラボの使用率要確認。
100%いってたら負荷が限界。 競馬予想に機械学習を用いているのだが
競馬サイトから38万件のデータを取得
18項目の特徴量を抽出してデータクレンジングを行った
ターゲットとなる順位(1-3位を0、それ以外は1)、過去3走のスピード指数(西田式)、斤量、騎手名(ダミー変数化)、過去3走の平均順位、過去の総賞金額
距離、芝/ダ、馬場、性別、馬齢、馬体重、体重増減など
k近傍法で機械学習させたら
正答率57%になった
1/2はランダムで50%だから当てずっぽうにやった場合より7%程度精度が上がってる計算
だが、そこらの競馬好きのおっさんでもこれぐらいは当てれそう
スクレイピングして大量データを機械学習に掛けましたってだけではそんなに精度上がらんのね
ある程度まとまった量のデータがあるならディープラーニング等で教師なし学習した方がいいんかな
それから一括でfitさせるよりはループ処理を用いてレースごとにfitさせた方がいい気がするんだが
モデルによりfitが初期化されたりされなかったりするらしいので仕様を知っておく必要がある >>648
lightgbm使ってみたら?
テーブルデータはみんなこれ使ってるよ そもそも熱暴走する前にファンが回るべきだからなんかおかしいな
挿し直しやドライバの再インストールするとか >>649
正答率57%だと理論上は7%分が利益になるじゃない
余談だが、昔読んだ統計学の本で、競馬予想の確率について解説している章があった
その中で大橋巨泉の何十年分の勝ち負けの賞金配分率の結果が紹介されていて
大橋の場合、配分率は80%だったと書いていた。
配分率が80%ということは、100円を賭けた結果のリターンが 80円で
20円の損失を出しいるこということで、勝率に換算すると40%とかそういう値になる。
これはつまり、当時の競馬予想界のトップに居た予想屋でも勝率50%を超えることは
難しいということを示している。
競馬の世界ではその後、2000年台に入ってから株式市場でのインデックスファンド
と似た方式で株券を購入する一種の必勝法が考案され、この結果、年間、数十億円
規模の利益を上げる投資家が出現し、競馬の配当金の課税方式をめぐって国税と投資家の
間で複数の裁判が最高裁まで争われる事態に陥った。
機械学習方式に予想を現実世界に応用する実験は、競馬、株式、犯罪防止とかの
領域で試みられてきたが、少なくとも上記の3つの応用例の場合は全て失敗している。
これは予想が現実世界に影響を及ぼすことで現実世界の状況に変化が生じることに起因している。 >>652
昨日モデルのパラメーターを色々変えたら正答率75%に大幅改善された
更にグリッドサーチにかけて様々なモデル、パラメーターを
試行し、血統データを入れたりデータの変更などの微調整を加えれば80%超えれそう
それぐらいならリターン100%超えるんじゃないか 競馬なんて不確定要素多すぎて機械学習やろうとも思わんわ。ダビスタでやってろ RTX3000番台はその発売後に3ヶ月かけてようやくpytorchが
6ヶ月かけてやっとtensorflowが対応した、と思っていたのだが
(今から記事を見直すともっと早く(10月末)出来ていたようなのだが、少なくとも2020年後半一杯は
RTX3080でtensorflowが動きましたという記事は無かったような)、
今回はもうpytorchもtensorflow両方とも発売直後からバシバシ動いて
4090は3090の1.3~1.6倍つまり最大でtensorコア数に比例する程度速いですという
当たり前の結果を叩きだしているんだなあ
だが2080tiとのコア数比だとあんまり大したことは無いんだっけ
LHRのせいか >>660
4000系と3000系の違いはDPX InstructionsとかDistributed Shared Memoryがサポートされてるかどうか、
それ以外は互換性がある。
おそらく、現行のpytorchは、上記のCUDA Compute Capability 9.0の機能はサポートしておらず
3000系のCUDA CC 8.xの機能セットの範囲で動いている。
この状態では、4000系のアドバンテージは、CUDAコアの数と搭載メモリのアクセス速度と容量の増大分くらいしか見込めない。
3080が登場した際にCUDAの互換性がなくなったのはCUDA sm_86の互換性が3000台に上がった際に仕様変更されたことが原因。
あとLHRの有無は機械学習には影響を及ぼさない(微妙に1コア分の処理負荷くらいは消費するかもしれないが) ぶっちゃけ速度倍になっても2か月が1か月になるだけなんだよなあ
もっと指数関数的に速度が上がるブレイクスルーが来てほしい 速度倍になりつづけてるなら指数関数的に速度上がってるだろw 俯瞰すればその通りだけど、時間軸の中に居れば倍になり続けるだけでは? 試合前の馬の映像をリアルタイムで見る機能があれば、
動画解析のレース予想が盛り上がりそうだな >>666
単位時間で倍になり続けることを指数関数的な増加というのだけど、663のいう指数関数的な増加というのはなんのこと? y=(2^n)*x と y=x^n で嚙み合っていないんだな 指数関数すら理解していないなら機械学習とかやる前に高校数学からやり直した方が 横だけど、RTX30からRTX40に上がるのが単位時間だろ、次はRTX50だろうが間隔が一定しているかどうかは知らん 指数関数、概念としては理解しているけど、名前と概念が未だに結びつかない
高校時代も数学だけは得意だったんだけど 対数関数、一次関数、べき乗関数、指数関数のグラフの違いを認識出来れば大丈夫 エロい人が作ったライブラリ利用するだけだから
数学力は要らんよ
データセット作成したら総当たりで最適化すれば良いだけ
ぶっちゃけモデルのΣとかいっぱい書いてる数式みても訳わからんのだが
分かった所で意味ないし 指数関数ということに関して叩かれてるけど、言い方が不十分だったから補足する
現状CUDAコアが倍になると速度も倍になるという意味でリニア
だからこれが指数関数的にならないかと思っただけ うっかり間違えた、と言えませんw
>言い方が不十分 >>669
時間軸の中に居れば、倍になり続けてるだけで、鼠算式に増えてることが実感できない。
この現象に名前を付けましょう。 [39.111.228.181]
110件
こいつのせいでスレの雰囲気悪くなってるよな >>677
指数関数的になるメカニズムがありそうな物理的現象がないだろ、強いて言えば量子ゲート式量子コンピュータぐらいか
>>680
単位時間が長いから実感できないだけだろ。
1日ごとにGPUが倍の性能になっていったらさすがに実感できるだろ
機械学習のための数学の知識はあるのかもしれないが一般的な理系の数学・物理の常識がなさすぎて笑えるわ ワッチョイ d6e6-OXP7 [153.166.193.38]くやしいのーw >>685
指数関数も物理も量子も分かってなさそう ゲラゲラ
468 名前:デフォルトの名無しさん (ワッチョイ e597-MPMO [182.171.246.142])[] 投稿日:2022/09/23(金) 03:50:53.34 ID:uVbpzvWc0
>>451
リー群の性質を持ったリーマン多様体とさとか最近のSFの映像によく使われている印象だし、数学得意なTAはリー群ぐらい勉強してると思うよ。
回転をなんとかうまく制御できないかと考えるとぶち当たる壁だから。 cudaコア数だけなら国内では未発売のMX570がMXシリーズなのに2000コア達成してるんだなw
でもVRAMが小さ過ぎる
これならGTX1660tiあたりの方が深層学習向けならまだ良い、
とは言っても、VRAM8GBないと画像中の物体検出すらあまり精度が期待できないからなあ
一方でRTX3060に8GB版が出来ちゃって、今後はお金は足りないけど中古で12GBのVRAMで出来た!
という選択肢がちょっと減ってしまう(or中古だと販売元に余程確認しないと買うものが8GBか12GBか区別できない)事になる
2060も6GB12GBが混ざってる状態だから、この辺は厄介だな
4080が(デスクトップで)16GBオンリーになりそうなのはちょっと安心したが
それでも3080から4080でCUDAコア数の伸びが少な過ぎる
3090→4090の方は、めっちゃ増えた!って感じだが
4070で12GB、4060で10GBとかになればいいんだが
またどうせ4060で8GBとかになるかなあ
いい加減、モバイル用で6GBもやめて欲しい所w
1070tiだとSLIとかがが使えるが、深層学習をするだけならSLI無しの只の複数挿しでも
VRAMを増やせるしスピードも2倍でなく1.7倍くらいなら行ける!って話がある
それだと中古で物凄く安くなってる1070の2~4枚挿しでいいんじゃね?って人もいる
この位になるとBERTの軽量版とかを使える
1つ画像分類モデルを作るためにはかなりのVRAMが要るが、出来たものはずっと小さなVRAMで良い
だから複数回画像分類モデルを使うプログラムを書くなら個別に作っておいて出来たhdf5ファイルを
複数個、状況に応じて呼び出す(その時にGPUの使用メモリを少しずつ制限しておく)なんてのが
必要な作業もある 法人向けのQuadro関係に全く触れてない時点でご察し。 >>690
上には上が存在することを認識せよ
個人には手が出せないだろうけど ギャンブル系は機械学習のような統計学的手法より数理最適化などの手法の方が向いている 最近勉強を始めたのですが、自分なりに調べたものの答えを見つけられず
どなたか教えて頂けないでしょうか。
(1)画像に対するアノテーションの作成において、例えば「二匹の犬が写った写真があり、一方の犬にしか犬のタグを付けなかった」とします。
この場合、一方の犬にタグを付けなかったことは学習にどのような影響があるでしょうか。
何も影響がないか、これは犬ではないと否定的に学習されるか、どちらかだと思うのですが。
(2)AccuracyとRecallはどのように使い分けるものでしょうか。
微妙に計算式が異なる事はわかるのですが、使い分け方となるとうまく理解できず... おい答えてやれよ
このスレはポエマーしか居ないのか? >>697
(1)は性能に影響が出る
精度、再現率ともに悪化する
(2)は目的による
googleとかの検索結果は精度が高いことが需要
最初の数件に正解があるかどうかが重要だから
網羅的に調べたいときは再現率が重要
経験的に精度と再現率はトレードオフの関係にある >>697
(1)わからない
ただし転移学習などで既に学習している場合は犬というのを学習している可能性があるので
犬と認識される可能性は高い
(2)
再現率はデータセットに犬を含む画像があって、そのうちどれだけ犬の画像を返せたか
適合率は判定した結果にどれだけ正しい犬の画像が入っているか
例えば1枚だけ判定してそれが犬なら適合率は高くなるが再現率は低い
全てのデータセットを判定すれば再現率は高くなるが適合率は低くなる
これがトレードオフ LGBMって本当にカテゴリの特徴量を読み込みないな
決定木だからカテゴリデータの取り扱いが得意そうねーと思ってると痛い目を見るわ
LGBMで特徴量選択して、NNで学習するアルゴリズムを組んだけど
重要なカテゴリデータを選択から外していて、気づいた時にうおっとなった インプット:5種類の数値
アウトプット:ABC3種類の数値があるが、そのうち最大のものの種類と数値しか学習時の情報がない
こういう状況の時、どういうモデルを作ればいいでしょうか? むちむち岡ちゃんが現代の名工で草
日本のデミス・ハサビスだね😅 intel extension for pytorchがあればintel arc上で深層学習が動くんだな
もうpypiにもcondaにもあると >>714
そっちも準備済みみたいですよ
Docker使える 在○のクソ○ョンは毎日元気に
日本人女性を強姦してるようだね!
統一教会じゃないのか? >>714
いや、むちゃむちゃ難易度高いはずだよ。
まず、普通の環境は、下からNvidia GPU、Nvidiaドライバ、CUDAライブラリ、pytorch/tensorflow
の順で構築されてるが、AMDに変更するとCUDAから下が使えなくなる。
CUDAはNvidia GPUの世代ごとにかなり細かい機能拡張がされていて、最上位のAIプラットフォームは
CUDAの機能ごとにC/C++でインターフェースを組んでる。この部分がNvidiaの囲い込みとしても機能してる。
つまり、最下層をAMDに変更すると既存のpytorch/tensorflowのアプリケーションはほぼ100%動作は動作不能になる。
これまでに開発してきたコード資産を一切捨て去ってAMDに乗り換えるなら別だが、普通はしないだろう。
あと、AMDにはNvidia V100/A100に相当するような機械学習専用GPUが存在してないので
ラージモデルをGPUクラスタを組んで機械学習をやらせるようなAIスーパーコンピューティングみたいな使い方もできない。
つまり基本的な学習環境としては使えるかもしれないが、本格的な業務には使えない。 midjourneyとかがきれいな絵をたくさん出せるのはそれだけ潜在変数の空間が広いってことなの?🤔 半島からきた奴は外来種と呼ぼう!
おい外来種ども!
日本人女性を強姦しまくって楽しいかね?
日本で平和と豊かさを享受してるくせに
日本で悪事ばかりの外来種!
外来種は半島に帰れ!
外来種どもは抹殺すべし! 自然言語処理の訓練時のデータセットで、
最もサイズが大きくなるのがone-hotの教師データというのは普通?
時系列の教師データをラベルの配列で保持して、
訓練時のみラベルをone-hotのデータに変換できればメモリを節約できるのに 自作の損失関数を使って、内部で教師データをラベルからone-hotデータに変換できれば
メモリをだいぶ節約できそうな予感。誰か試したことないかな 自分でビッグデータ作って回帰して関数作ってますけど >>724
ネット上に転がってる程度のコードだと
どれも訓練前にワンホット行列に変換していて、ああメモリ食うな〜と思ってた
製品レベルの話だと普通ということか 製品レベルだと、訓練時にone-hotに変換するのが普通なのかな
でも、その割には適当なツールがないぞ ああ、sparce_matrixとしてデータを保持すればいいんだ… 自分で作ったデータをビッグデータとは呼ばないだろ
ただの大量のデータなだけで 日本の偉人たちは朝鮮人について警鐘を鳴らしてきた
夏目漱石
「朝鮮人に生まれなくて良かった」
伊藤博文
「嘘つき朝鮮人とは関わるな」
吉田松陰
「朝鮮人の意識改革は不可能」
福沢諭吉
「救いようのない民族」
本田宗一郎
「韓国人と関わるな」
ちなみに本田宗一郎はバイク工場を
丸ごと韓国メーカーに取られて
激オコしていた。 国際大会ではおなじみとなった日本人サポーターの試合後の清掃。海外からは称える声が多数上がっているが、日本の一部の識者からは「ただの自己満足 掃除人の仕事を奪ってる」などと指摘されていた。 これに反論したのはエジプト出身で長く日本で活躍するタレントのフィフィだった。 自身のツイッターで「日本サポーターのゴミ拾いに『観客が掃除すると、清掃を業にしている人が失業してしまう』って言ってる人、スタジアムイベントの清掃員の報酬がゴミの量で決まると思ってるのかな…てか、カタールのスタジアムの清掃はボランティアが多いから助かっているのよ、実際に感謝されてるのを知らないのかな」とつづった。
このニュースの問題点は、
『日本の一部の識者』というのが在日韓国人・朝鮮人ということと、
そのことを報道している毎日新聞、TBS、東京新聞は韓国系であるし、朝日新聞とテレ朝は
中国系ということである。
やはり半島系と中国系は皆殺しにするしか日本は正常にならないと思う。 >>736
ホンダの役員から聞いたことだぞバカw
今では創価のホンダにも半島系社員が増えてきているから、
そのうちホンダは韓国のものだろうな笑笑 日本人サポーターのゴミひろいを攻撃してる日本人と称している女医さんの顔が、まんま朝鮮人顔なんだが笑笑 >>741
ホンダは創価でなければ管理職以上にはなれない。
その創価の信者に半島系がドンドン増えてきて
創価の60%は半島系となった。
元々日本人の創価だったのが半島系となった。
そしてホンダも半島系創価になった。
そういう話だよ。 スレチじゃないんだよね
pythonスレは半島系のクズが常駐してるから。
まじ性格の悪い強姦魔の半島系帰化人w 常駐してるの根拠は?
また、常駐する行為を禁止してないが >>737
DNA的に見ると日本人の多くが持っている縄文人、弥生人のY染色体は
元々大陸が繋がっていた中国人にもあるはずだが、、ほとんど無い
これは占領した地域の男を虐殺し、子孫を反映させるってことを長年やって来た結果
日本人と同じタイプの人間は皆殺しにされてしまった臭い
歴史的に見ると日本人がやられる方 勝手に誰でも常駐してください
ここは機械の発展を議論する場です 違うだろ、すし握り機械の議論はしない
>ここは機械の発展を議論する場です レコード数が2億のデータをLSTMで訓練しようとすると
データ数が2億の数十倍で…
あうあうあうって感じになってるわ それだけデータあるならtransformerのほうが良さげだけど それだけデータがあると、39.111.228.181に言わせればビッグデータになるんだろうなwww そりゃビッグデータ超えてビックリデータですな、わーはっはっはー、コラ、誰がうまいこと言えいうたんじゃ、びーっくびくびくびくデータ♪ >>756
ありがとう。transformerについて調べて試してみる データが大きすぎるからファイル分割して保存して、
epoch毎に各ファイルのデータをロードすることにしたけど
再訓練時にlearning rateを変更できるAPIがkerasに用意されていない気がする
自作コールバックを作れば解決できるけど
そもそもこの機能なんで標準で実装されてないんだろう
需要ないのかな lrにこだわりがある人は自分で実装したいんじゃない? 確かに、自作できるように道具はすべて用意されてました
公式ドキュメントが手厚すぎる agiぽいことがllmでできるとは想像してなかった
chatgptオモロイね IBMの統計ソフトってExcelでは出来ないすごい事でも出来るのですか? >>767
情弱過ぎて涙が出てくるな…
統計学の入門書でも読んでみたら? >>768
はい情弱なんです
統計については全くのチンプンカンプンです
ハイかイイエで答えて頂けると助かるのですが
Excelでやる場合は自分でややこしい関数使って組む必要があるものをSPSSは事前準備無しで使える
ただやろうと思えばExcelでも同じことは出来るのではと考えているのですが SASとかSPSSが下に見られてるのって、意識高いビジネスユーザーとかお金もってる製薬とかにフィットしてぼったくってきたから? ところでSPSSのアルゴリズムは全部分かってるの? 下に見られるのかどうかは知らないけど、プログラム書けるならPythonかRで基本的なことは出来るから、プログラムが書けない人とは思われるんじゃない?
伝統的にSPSSで分析してきましたみたいな部署や研究室は蓄積があるから選択するのだと思うけど でも結局統計学がわからないならエクセルであれなんであれ
自分が何やってるかわからんのではないか? SPSS・・・プログラミングの知識やスキルが無くても、高度な統計の知識が無くても、GUIで直感的に分析が出来るのでその付加価値の為に高額
つまりこういうことでおk? アリババグループのツァイニャオは提携する運送業者の運行をデータ処理によってコントロールする。
日本における提携企業の日本通運によると、ツァイニャオのデータ処理によって配送費用を3割抑えることに成功しているという。 統計学の博士号持ってるような人がようやく組み立て使える手法もSPSSならGUIの操作で簡単に可能、みたいな?
それなら確かに価値はありそう >776
アメリカの製品は押しなべて吹っ掛けているので高額。
計算が間違っているという試練に耐えているので信頼性があるとされる。 >>779
なるほど
高度な統計分析を自分で行うと色々と計算して行かなくてはいけないのか
企業にとっては神ソフトウェアじゃん 統計だと最先端付近?の複雑なモデルはstanとかベイズのソフトでやってると思う。多分SASとかからも動かせる。あとは、数学上級民がRとかjuliaでスクラッチしてるのもチラホラ。 解決しました
要はプログラミングさえできる人はRとPythonでなんでも出来るって事ね JMPユーザーはあんまりいないのかな?
機械学習するにはJMP Proじゃないといけないけど。 データの「型」がわかれば
どういう手法が使えるかという
一覧表が書籍として出ている
もっともいろいろな「仮定」があるので
何も考えずに使うと意味のない結果が出てくる
ちなみに大多数の世論調査とか
やり方が間違っている 正規分布に準ずる
って公理なんかおかしくない?
なにこれ 半島系帰化人というのは悪魔だ!
早く抹殺しないと日本がダメになる!
特に30代Pythonクソチョンは
すぐに抹殺すべし! >>786
できない
嘘をつく人と、答えない人がいる以上
正確な測定はできない >>789
できないとは意味が違うぞw
>ちなみに大多数の世論調査とかやり方が間違っている >>789
そういうのを考慮して信頼区間なり何なりを出すのが統計だろw 世論調査なんて大抵は回答してくれた人の結果をまとめただけだからその時点でバイアスがかかっている
本当に厳密にやるなら回答しなかった人がもし回答していれば何と答えたか、因果推論の分野で言う反事実について検討しなければならない まずはバイアスバリアンスのトレードオフを勉強しような 今の世論調査とか視聴率調査とかは
サンプル数が1000ぐらいだから
もし正確に測定できてしたとしても
誤差が大きい
例えば、視聴率30%とでたら
実際は25%から35%の確率が
95%というに過ぎない
視聴率が2%上がりました
とかは誤差に埋もれる範囲 傾向スコアベースで、アンケートに答えたか答えないかの介入予測の共変量だけで、アンケート内容を補正する式があって驚いた記憶。回帰分析的だと少しは答えなかった方が答えたデータも無いと厳しいと思うので。 こうやって結論が出ないまま先延ばしになって
議論も法律も倫理も糞くらえで
とにかくデータを集めりゃいいんだと
息巻いて集めまくってるところに負けるんだよね
いや、、負けたのか 30代Pythonクソチョン男は強姦魔の犯罪者!
30代Python男を雇うときには
両親と祖父母の戸籍謄本を提出させましょう! SASの存在価値って本格的に無いよね?
RとPythonに比べて全て劣ってない?
SPSSはGUIと利便性に存在価値あるけど 30代Pythonクソチョン男は強姦魔の犯罪者!
あなたの近くにいます!
父母と祖父母の戸籍謄本を提出させましょう! 黒人がゴリラに認識されたりうまく顔認識されないからって別にアルゴリズムに差別が組み込まれてるわけじゃないし >>807
39.111.228.181が糞レスを繰り返してるから こういう素晴らしい書き込みをしなさいw
103.163.220.73
36.14.133.245 >>805
教師データに差別を組み込んでおいたんだろな。 30代Pythonクソチョン男は強姦魔の犯罪者!
あなたの近くにいます!
父母と祖父母の戸籍謄本を提出させましょう! 強化学習と教師付き学習の違いてなに?
用意されたサンプルがあるのが教師付き学習?
報酬関数を用意してあってサンプルがないのが強化学習?🤔 千葉県民の彼
調べたら他のスレでも見かけるんだけどマジでやばい人なの 株のロボアドバイザーてのを調べたら株じゃなくて投資信託を選んでるだけだった😅 30代Pythonクソチョン男は強姦魔の犯罪者!
あなたの近くにいます!
父母と祖父母の戸籍謄本を提出させましょう! Tsetlin Machineて聞いたことなかった😅 kaggleで勝つためにtransformerではなくlstmを使ってるんだけど
データ量が多すぎていっぺんに学習できないから
データを分割して、分割データをモデルに順に学習させるという手法を取った
それで、気づいたことがあるんだけど
同じエポックの中でも、分割データを読み込むたびに、学習率を下げた方が学習がうまくいくのね
……どういうことだ? kaggleって今もkeras使ってる人多いんか?
TensorFlow1.xの頃はkerasばっかりだった気がしたけど、、、
自分はTensorFlow2.xになった頃、Pytorchに移行して
しばらくしてPyTorch Lightning使うようになったが、、、
今、kaggleとかsignateって何使ってるんだろう pytorchの方がユーザー多いんだな。以降メリットを把握できてないけど Arc 730M搭載モバイルのOSをUBUNTUにしたら
VRAM12GB搭載で性能まずまずのAIを扱えるのか
でも1店舗しか売ってないみたいだなw 強いaiて哲学者が言い出したことなの?汎用人工知能じゃ駄目なの? 分かり難いものにはラベリングが大事
逆に言うとラベリングのおかげで知ったかが増える 如何に早く分かり易いラベルを貼り付け周知させるかはビジネスにおいて重要 30代Pythonクソチョン男は強姦魔の犯罪者!
あなたの近くにいます!
父母と祖父母の戸籍謄本を提出させましょう! >>829
ユーザーが多いってだけでも十分メリットだと思う 入力
「AlphaTensor」とはなんですか?
GPT3.5 出力
>2022年10月、Google傘下のDeepMindは行列の積を効率的に計算するための未発見のアルゴリズムを導き出す「AlphaTensor」を開発しました。
強化学習を使用し、行列の積を計算する最適な方法を求めること自体をゲームとみなし、AlphaTensorに訓練させた。その結果、「4×5の行列」と「5×5の行列」の積を求める際に、
通常の計算方法で100回の乗算が必要なところを、76回に減らすことができたようです。
AlphaTensorは行列計算だけでなく、高速逆平方根計算アルゴリズムやダイクストラ法、ハフマン符号、カラツバ法等の古くからある計算アルゴリズムを大きく改善できる可能性があるようです。
HTTP通信プロトコルのパケット処理など、ネットワークの通信そのものも高速化できる可能性もあります。
入力
プログラミング言語「Triton」ってなんやねん
GPT3.5 出力
>Tritonは、Pythonをベースとしたニューラルネットワーク向けプログラミング言語パッケージです。2021年にopenAIが発表しました。
NVIDIAのCUDAを用いる場合、GPU用のネイティブカーネルや関数を作成する過程で、マルチコアGPUのメモリ階層全体で割り当てデータと命令を移動しなければならず、プログラミングが非常に複雑になります。
しかしTritonは、CUDAのように3つのコンポーネントを考慮したGPU専用のコーディングを簡略化できます。
「ベクトル加算カーネル」と「融合ソフトマックス演算」を高速に実行できるコードを書くことができます。最短25行のコードで、FP16行列乗算カーネルを作成できます。
研究者はPythonでコードを作成し、JITコンパイルしてGPU上で動かすことができます。対応しているハードは、GPUとTPUです。 >>840
> 「4×5の行列」と「5×5の行列」の積を求める際に、 通常の計算方法で100回の乗算が必要なところを、76回
大学1~2年の線形代数の授業で習う通常の方法では、5*5*5*4回だね。
調べてみたら、既にStrassen’s algorithmという手法が有るらしく、その方法でって事かな?
でも、Strassen’s algorithmには、
Strassen’s algorithm has some numerical stability issues when used with floating-point...
だそうで、注意が必要だとか。Alpha Tensorのアルゴリズムでは、数値的安定性はどうなんだろう?
以前の職場で、誰か(多分派遣)がFEMの自動メッシュを信用してその結果を元に設計され、
CAEの計算方法が数値的安定性を欠いてたみたいで、
かなり下流の工程でプロパーのベテランが数値を見ておかしい事に気付いて設計段階からやり直しとなり、
「コンピュータの出力結果を信用するな!」という回覧が回ってきた事が有った。某大手自動車メーカーでの話。
https://fgiesen.wordpress.com/2022/10/06/on-alphatensors-new-matrix-multiplication-algorithms/ 入力
ブロック崩しを実行できる簡単なプログラムをPython3で書いてくれ!
ゲームに必要な画像はCドライブに用意してあるから。
GPT3.5 出力
お任せください!ブロック崩しを実行できるコードがこちらです!
入力
おう。でもこれ、球が動かないぞ?
https://i.imgur.com/NaZzsAW.png
GPT3.5 出力
申し訳ありません.... 修正したコードを用意したいのですが、
どこが間違っているのか不明です。 AIのVtuber「Neuro-sama」のマイクラ実況がびっくりするほど面白くて海外で流行る
https://togetter.com/li/2038624?page=2#index35
>マイクラ配信は最初動き方を知らずにプルプルしてたけど、
30分経てば移動やブロックの設置&破壊を学習。7時間もすれば鉄を作れるようになる超進化っぷりに
https://twitter.com/eight_2_leaves/status/1611068839416188929/video/1
https://twitter.com/5chan_nel (5ch newer account) ゲームの部分は強化学習?と探索アルゴリズムのようだが
配信の会話の部分は、自然言語処理のようだ
ゲーム内容と会話内容は連携していない 実況しているというより、配信のスパチャとか書き込みに応答している 30代Pythonクソチョン男は強姦魔の犯罪者!
あなたの近くにいます!
父母と祖父母の戸籍謄本を提出させましょう! aiはブラックボックス言うけどさ
しつこく数字を追って試行錯誤したら多少はこのパラメータがこの現象に対応してるんだなくらいは分かるでしょ?なんでやんないの?😅 そういう分野があるぐらいだが
分類木くらいでも複雑になると
わけわからなくなる プログラム自体はVBA書く程度だけど馴染みはあるし
機械学習やってみたいから小規模なのを作ってみるかと思い立ったが
高校中退だからか誤差逆伝播法の逆伝播の部分をどうプログラムとして書けばいいのか分からなくて泣いてしまった
入力の配列(a)、重みの配列(b,a)、誤差の配列(b)は用意できたけど
それを使って更新された重みの配列(?,?)を作る方法がわけ分からん
数式しかないしシグマが何表してるのかもわからないし∂Xとか∂Yなんかどれに当てはめればいいのかさっぱりだ 理論的にはそういうので正しいしプログラムで記述もできるんだけど普通はPytorchみたいな機械学習用のライブラリ的なものを使って内部でやってもらうね
モデルの作成とか読み込みみたいなところもライブラリ側でやってくれる
基本的にプログラムで書く必要があるのはデータの前処理とか必要があればどういうアルゴリズムにするかとかやるけどその話ではなさそうだよね >>856
微分とか偏微分とか出てきたんだが
そこの説明でdz/dxとかが出てきたときに
x,z,dx,dz,dz/dxが
それぞれ入力とか誤差とかのどこにあたるかが全くイメージつかないから
プログラムとして書けないどころか手計算で作ってみることもできないんだ… dz/dxは単なる記法だから一つのテンソルだよ
どこにあたるか?は数式で考えればわかる
まず数式で書いてみな?
例えばXを入力、Wを重み、Yを出力とする(次元は適当に)
Y=XWの逆伝播を考えるの
求めるものは2つ
dL/dXとdL/dWだ
Lは損失関数ね
dL/dXはチェーンルールの規則で逆伝播する時に必要だから求める必要がある
このdL/dXはテンソルだからまず成分ごとの偏微分をチェーンルールを使って書き下す
(数式の具体例を考えて手で書くと良い)
そうやって全体のテンソルの偏微分dL/dXを求める
dL/dWも同様
俺はこの地道な手順をやって理解した
あと本で良くあるニューラルネットワークの変な図で考えると理解できんよ
あれは全部忘れろ
数式で考えろ
あとゼロから作るディープラーニングはこの辺りの計算部分が全部省略されてるから注意 これでもイメージがわかないならそもそも偏微分とは?チェーンルールとは?が理解できてないから
微分を根本から勉強した方が良い
1番厄介な積分はディープラーニングではいらないからそこまで時間はかからんよ 30代Pythonクソチョン男は強姦魔の犯罪者!
あなたの近くにいます!
父母と祖父母の戸籍謄本を提出させましょう! 微積分もよくわかっていない奴にテンソルを押しのボケ爺 >>854
tutorials.chainer.org/ja/04_Basics_of_Differential.html
tutorials.chainer.org/ja/13_Basics_of_Neural_Networks.html
手計算だな、、、これ昔ネットで見ていた資料
これも
「いくつかのデータをまとめて入力し、それぞれの勾配を計算したあと、その勾配の平均値を用いてパラメータの更新を行う」
って書いてあるのに
3.Nb個の目的関数の値の平均をとる
4.この平均の値に対する各パラメータの勾配を求める
5.求めた勾配を使ってパラメータを更新する
とか訳のわからんこと書いてあったりするけど、、、、 素直に読めば
テンソルごとの勾配を出して
その平均値をを出して
各パラメータの平均の勾配を求めて
パラメータの勾配値とするとしか読めないが
あっているか問うか知らんが >>867-868
いや優秀じゃないです。実際に役立つものを実装できません。 >>863
言ってることが違うよねって話だけどね
いくつかのデータをまとめて入力し、それぞれの勾配を計算したあと、その勾配の平均値を用いてパラメータの更新を行う方法がよく行われます。
これをミニバッチ学習と呼びます。
ミニバッチ学習では、以下の手順で訓練を行います。
1.訓練データセットから一様ランダムに Nb (>0)個のデータを抽出する
2.その Nb個のデータをまとめてニューラルネットワークに入力し、それぞれのデータに対する目的関数の値を計算する
3.Nb個の目的関数の値の平均をとる
4.この平均の値に対する各パラメータの勾配を求める
5.求めた勾配を使ってパラメータを更新する
これ、そこのホームページが元なのか知らないがパラメータの更新方法について下の手順で書かれている本やサイトを何回か見たことあるけど
手計算で目的関数の値から勾配を算出しているのを見たことがない 30代Pythonクソチョン男は強姦魔の犯罪者!
あなたの近くにいます!
父母と祖父母の戸籍謄本を提出させましょう! >>864
実際に箸にも棒にも引っかからない本ばかりで出版社がかわいそうになった
エンジニアは書籍を出すと泊が付くから本を出したがるけど
著者のレベルはピンキリ
特にAI関連なんて、いまさら情報がありふれてるから
質を問わなければ誰でも入門書の執筆ぐらいできるんだよ
これを真面目に売らなければいけない人、まじできつそう >>873
お前をターゲットに出版社がしてるわけでもないだろ >>874
?
論点そこじゃないよ
「基礎的な内容を謳うAIの入門書が粗製乱造されてる」ことを書いてるのであって「>>873の好みに合わない本が出版されてる」とはいってないよ >>875
書店はある程度売れる見通しがあるから出版してるんだろう。論点がずれてるのはお前。 >>875
言い換えるとお前が素晴らしい本を上げればいい話 入門書じゃないと売上少ないから仕方ないのさ
はっきり言って日本語の本はろくなの無いし、書籍になるのはだいぶ遅いから
ある程度学んだら最新の論文で情報追うのが賢い 杉浦とか普通にわかりにくいから無駄
今ならいくらでもわかりやすい本がある なんか機械学習を知ろうと思ったのに
タイタニック号で生死を分けた要因は何かとかアヤメの分類のキモとか
無駄に雑学ばかりが身について困っとる 等級が高い人の子供はほぼ生き残ってるのが凄い
心まで貴族だよ 子供属性も貴族属性も優先救助の対象なんだから生存率高いのは当然かと いや貴族の男は死んでるんよ
貴族は女子供を優先するという教育が徹底しているため
自分が死ぬの確定してるのにそれを貫き通したらしい
サンプルを動かしながら俺は涙が止まらなかった
最後の救命ボートを見送って最後に船内でピアノとか演奏してたとか言う逸話がある
知らんけど サイトを教えてもらったはいいが
なんでどのサイトも出力層が1つの状態で解説するんだよ…
出力層が2つ以上あるときのそれぞれの誤差を
入力層-隠れ層間の重みの修正にどう使うのかが知りたいんだよ… あとバッチ処理も書かれてはあっても中々に意味が分からん
複数の入力時の誤差を蓄積しておいて
学習のときにはそれらの平均を使うのは分かるとして
重みの更新用で傾き出すときに入力や隠れ層の出力×今の重みをしてると思うんだが
その入力はどこから来たものなのか
誤差蓄積に使った特定の1つなんて使ったらがっつり学習が偏るだろうし
全部1として入力によらず重みだけで更新されるようにしてるのか だから数式で書けって
テンソルで書けばバッチの時と区別する必要がない >>888
だからどんな式を使うのかは読めてもどんな値を持ち出すのかのとこで詰まるしそこで欲しい情報が微妙に足りなくなるから書けないんだって 高校中退で数学が分かんないことを自覚してるくせに勉強しないとは 更新のための傾きを求めるときにさ
更新元の重み×誤差みたいなのするじゃん
で、隠れ層-出力層間の重みの更新が終わって
入力層-隠れ層の重みの更新をしますと
ここで出力層の誤差じゃなくそれに隠れ層-出力層間の重みをかけたもの(他のかけるものはなんとなく分かるから飛ばし)を
入力層-隠れ層間の誤差としますみたいに書いてあんのよ
隠れ層の重みって言ったら隠れ層のノード数×出力層のノード数分あるじゃん
それら全部にかけ算したら隠れ層×出力層の数分傾きが出てくるじゃん
でも入力層の更新元の重みにかけたいのは隠れ層のノードごとに1個の誤差なわけだから
出力層の数分は数が合わなくなるじゃん
そこを足すのか平均とるのかどう処理すればいいかみたいのに
出力層ノードを1個で解説してるとこばっかなわけよ
隠れ層ノードごとに重み1個しかないんだから複数重みがあるときの処理なんか書いてるわけ無いじゃん Q おいチャットGPT、
Neuro Evolution of Augmenting Topologies(NEAT)ってなんやねん
A
「GA(遺伝的アルゴリズム)」は世代ごとに遺伝子を交叉、変異させ、適合率が高い個体を残していくことで徐々に良い個体へ近づけていくいく手法です。
この人工知能は、ニューラルネットに対してこのGAを使い、ニューラルネットを遺伝子配列で表現する手法を採っています。
>Neuro Evolution of Augmenting Topologies(NEAT)<
と呼ばれ、2002年の論文で初めて発表された強化学習の手法の一つです。
全体の設計としては、ニューラルネットワークの接続形態を交叉の原理に基づき、種の形成をして構造をより良いものとし、結果的に最小限の構造からノードの数やノード間を結ぶ接合部の数を増やしつつ成長させるというものになっています。
つまり「遺伝的アルゴリズムでニューラルネットワークの結合重みやトポロジ(各層間の接続関係)の自動最適化を行う手法」と言えます。
対象となる問題に合わせてネットワークの構造が変化するので、通常のニューラルネットワークより速く解の探索を行うことができるとされています。
ニューラルネットワークの結合重みはバックプロパゲーション(誤差逆伝播法)という手法で更新されますが、それを遺伝的アルゴリズムで行います。
初期集団には隠れ層がない単純なニューラルネットを採用します。
この手法は、状態や行動の価値を設定してその価値が最大になるようにTD誤差に基づいて価値関数を最適化していく「Q学習」や、方策をあるパラメータで表される関数とし、そのパラメータを期待収益J(θ)を確率的勾配法などで最大化する「方策勾配法」とは違います。
「モンテカルロ法」は実際に試行を繰り返して得られた報酬から”価値を推定”するので、遺伝的アルゴリズムとは区別する必要があります。
TD学習は、報酬から方策関数や価値関数を改善しながらBellman最適方程式を解いていきます。
NEATは、環境目標に従ってネットワークを最適化するためニューロンと内部接続を追加することにより、ニューラルネットを動的に進化させます。
どちらも「環境から状態を受け取り、そこからより最適な行動を選択できる」よう変化していくことは共通しています。 まず個別のニューロンで考えてる時点で分かりにくいからやめとけと思うけど
それがやりたいなら
多変数関数の偏微分とチェーンルールを勉強しろと言ってるだろ 東ロボのやつのあの女はなんであんなに上り詰められた?大した業績なかったよな?? ノートなんて取ったことが無いから
O氏はかわそうだなと思いました。 859 名前:デフォルトの名無しさん (ワッチョイ cd09-8jYs [150.91.3.238])[sage] 投稿日:2022/07/20(水) 20:31:37.56 ID:1J9/RHKW0
新井紀子て何様よ ChatGPTでGoogleがコードレッド発動したり
ChatGPTはGoogleのコーディング職の試験を受けた場合、
レベル3エンジニアレベル(年収2420万円)とか
ChatGPT利用した言語学習プラットフォーム「Speak」が出たり
展開が早すぎる、、、
何かを教える立場の人もオワンコになっていく感じだろうな
知識を身に付けなくてもスマホで聞けばいい時代になるんだろうけども 田舎に居る若い奴等は畑で野菜作りでもしながら
やれる仕事を探すってのも大きく間違っていない気がしてきた
「ある日、森の中、熊さんに出会った」ぐらいの衝撃で
ある日、突然、その分野の未来が閉ざされる時代になりそう >>898
STAP細胞「確かに存在」 米ハーバード大教授、京都で講演 >>903
本当にこの傾向になると
学習するための材料も極端に減っていって
AI同士がコピーし合うだけにならんかな
知性のストップ 30代Pythonクソチョン男は強姦魔の犯罪者!
あなたの近くにいます!
父母と祖父母の戸籍謄本を提出させましょう! transfomerのpositional encodingについて調べてるけど、書いてる人も絶対雰囲気しか理解してないだろう的な説明しかない・・・・ 以前ここで「微分分からないから計算をプログラムに起こす方法も分からない」みたいなこと書いた者です!
あの時は順伝播の部分しか作ってなかったのですが
あの後逆伝播での学習部分も実装できて
今では学習からテストの結果をLINE自動送信サイトにぶん投げてスマホから確認までの
やりたいこと全部作れました!
ありがとうございます! 位置エンコーディングの説明ならvision transformer本の説明が分かりやすかった >>903
まだAIは実際にモノを作って改善できるところまでは行っていない(デバッグできない、実験できない)ので、
人間は実験役になるのではないのかな。
ビジネスチックな言い方でちょっと嫌だけど、PDCAのサイクルは回せないわけで。
回せるようになったら徐々にシンギュラリティに近づくだろうね。
既に、人間の知性の底上げには既に間違いなくなってるだろうし。 30代Pythonクソチョン男は強姦魔の犯罪者!
あなたの近くにいます!
父母と祖父母の戸籍謄本を提出させましょう! in context learningてなんのこと?
few shot learningのこと?🤔 初歩的な質問ですみません
「時系列データ+一つの数字」を機械学習の入力変数とすることはできますでしょうか?
例えば「加速度の時系列データ+センサの周波数の値」を想定しているのですが… >>918
できる。何やりたいかはわからないし、機械学習とは言わないかもしれないけど、
非同期の複数のセンサー用のカルマンフィルターなんかの設計でその手のは研究されまくってると思うよ。 >>919
ありがとうございます
大変参考になりました 取り合えずデータセット作って
CatboostなりXGboostなりにブチ込んどけばいいんじゃないの
当たらずとも遠からず的な予想が返ってきそうだけど
音声だろうが画像だろうが無理矢理ブチ込めば
それなりのが答えが返って来る
一番じゃないだけで 分類問題で出力層y1〜ynの内
正解層と同じ添字の出力層yxの誤差をyx-1
出力層の中で一番でかい層yzの誤差をyz
として
一番間違いが大きいところを削って正解にすべきところを伸ばす
その結果を1〜0の範囲に収めていく
みたいなことをやりたかったんだが
yzの値がどんどん削られて0に近づきはするのに
yxのほうは伸びるどころかyz以上に削られて-300とかになってしまう
何故なんだ… データ加工っぽい案件があるのでSQLの練習してるけど、初級レベルでも自分自身とjoinしたり不自然な技がおおくて、絶対Rのtidyverseのほうが優秀。普通にfor文書かせてほしいわ。。。 >>921
うちじゃ、とりあえず10種類ぐらい試すかな。
Pythonのライブラリですぐできるから。 考え方の違いだな
モデルに持って行く前段階で何かやらかしている可能性も考慮して
いきなりたくさん回さない インデックスが datetime な pandas の dataframe を plot() すると plt.xlim() の値がおかしい
plt.show() すると描画されるグラフの横軸は 2021-1-1 から 2023-1-1 までで、これは意図した通りなんだが、print(plt.xlim()) すると (-620.9, 13838.9) という謎の範囲が表示される
num2date してみるとこれは 198何年から200何年で、どういう変換がされてるのかわからない
どなたかヒントください SAS、SPSSの下げ記事書いてるライター結構いるけど
そもそもデータ分析だけを必要とする層がビジネスや研究の分野でゴマンといるわけでしょ?
一時もそれ以外の事に時間を割きたくない層からしたらpython、Rの学習なんかやってられないよね
機能面でいくらマウント取れても素人が気軽に活用出来ないなら意味が無い
大企業が金かけてもいいから信頼性と操作性を重視してSASを導入するのは当然の事 データ前処理をPythonやRで自由自在にできないと使い物にならんかと
はじめから綺麗なテーブルデータが得られるなんて皆無なのに そういうバカだけど地位とカネがあったりお薬みたいに公金チューペットできる層からボッタクる商売がSASとかSPSS すみません、autogluonを使った古いスクリプトをもらったのですが、自分の環境で実行すると
module 'autogluon' has no attribute 'args' というエラーが出ます。
argsという属性は古く、現在サポートしてないということのようですが、新しいautogluon用に
これをどう書き換えたらいいかみたいなガイドってありますかね?
古いのだとこのargsで各種パラメータを指定するようですが >>932
プログラミングが分からない素人ビジネスマンはExcelを使うのでは Excel1本で前処理は苦行すぎる
しかし、SASの対象はユーザー企業だからDBからエクスポートしたような綺麗な構造化データしか触らないだろう SASに関しては多少プログラミング齧った人材が必要だと思うけど
SPSSはExcel扱えるならプログラマー要らないですよね
どちらにせよPythonとRを統計実用レベルまでマスターできるなら、それもうプログラマーとして食っていった方がいいですよw プログラマーってそんなに簡単なもんかいな?
まあ、分析できれば目的は達せられるので、プログラマーになろうとは思わんが。 営業とか研究開発の本業をこなしながらプログラムもなんて大半の人間は無理じゃないですかね…
たとえできる人がいても他大多数は使いこなせないから、浸透しないし。 理系脳ならプログラミングも統計学の初歩もすぐわかるだろうし、
そうでない文系ビジネスウェイみたいなのは時代的に用済みかと。 研究開発やってるような人だとプログラミングできない人を探す方が難しいのでは? 今どきはexcelでたいていの統計処理はできるからなあ
必ずプログラミングが必要かというとちょっと 自分は実験系の研究開発してるけどPythonでデータ処理するのが当たり前になってるね
自分の周りも深層学習とかPytorchなんかで色々やってるし数年前と比べても楽になったなあと実感するわ >>944
いつもデータがexcelで綺麗に整理されていると思うな というか、今時excell,GSなどは情弱低知能のためのツールじゃろ。
情強は手動でデータ入力する必要があるときに嫌々使うだけで。 Excelで分析するのは一画面に全データが収まる程度の量しか扱わないなら悪い選択肢ではないけどそれ以上の量になるなら流石に面倒すぎてやってられない Excelは、データの入力や、出力結果の確認(フィルタとかセルに色付けとか)は便利だよね。
途中の処理は全部Pandasでやってるけど。めんどくさいことが多すぎる。
VBA書けたら違うんだろうけど、VBAよりJupyterのほうが便利な感じだし… Excelはpandas.DataFrameとして読めるようになってから逆に復権した そういえばExcelで日本語表示するのってエンコーディングは何が正解?
pandasで処理したUTF-8のCSVを渡したら「Excelで文字化けして見えん」と怒られた
自分は普段Excelをできるだけ使わないようにしているので >>952
PandasからのExcel向けの出力は、CSVにするより、
to_excelでxlsx書き出した方がいいよ。
マジで。 ExcelはExcelでよいところもないわけではないこともないことがあるわけではない Excelは表計算ソフトじゃなくて申請様式メーカー それもおかしい。罫線まみれのexcellは狂気。そもそもexcellは無いほうが生産性が高いし、それしか使えないのは退場すべき。やたら使われてるのは世が情弱なのと雇用慣性があるから。 配線図の資料がExcelで罫線使って作られてるの見たときは怯んだ まあそんなわけでキントーンなんかの宣伝文句もなりたつわけよね 今の文系大学生ってプログラミングとか普通に出来るんじゃないのか?
動画作成とか、データ分析とか、、、
自分等の時代の文系は、遊び専門で
コミュニケーション能力とか人脈とか話術とか多数派云々だったり
そんなテクニックだけでやり過ごしている奴ばっかりだったけど できるね
高いエクセルなんて持ってないしみんな無料のPython使ってるよ 自分等の時代がExcellだったからな
プロダクトキーだけでオンラインで云々とか無かった
でもLinuxで標準的に入ってるLibreOfficeとか
googleのソフトとか
その辺使ってレポートとか書いてるんじゃないの?
昔はWord、一太郎、Texと3つあってソフトとか指定されて
それで書いてたけど >>962
大体どこの大学もMS365に包括で入ってるんじゃない?
学生の PCでWord、Excelが使えないとなると教員が困るから。 プログラム開発者にはExcell使ったことない人がそこそこ存在。 Excelが嫌われるのは長期的に使い続けてデータベース構築するような用途に無理矢理使おうとするからであって、その場限りでとりあえず表形式の見た目のものが欲しいだけの用途に使うのなら何ら問題ない DBやcsvなどのtidyデータ形が念頭にある上で小さい規模で使うのが本来 機械学習用のPCで3060ti 8GBってあんまり良くない選択肢だったりする?
CPUは13600を載せる予定なんだがRyzen 7000X3Dを待ったほうがいいのか? 1080tiとk20cではk20cの方が数倍速い
tensorflowのfp32のケースだが 処理速度が遅いのは待てば済む話だが、
メモリが足りないのはそもそも実行でき
なかったり、極端に小さなバッチサイズ
を使わざるを得なくなったりする。
というわけで自分が趣味で使う個人用機
は予算との兼ね合いもあり、3060 (12GB)
にした。電気代が高騰するなか消費電力
が小さいのもイイ。 ChatGPT凄すぎて、AI関連の仕事まで無くなりそうだなこれ
ニッチ分野でやっていくしかないね Pythonはまだ分かるけどRをマスターしようと思ったらくたばるでしょ
マスター出来たらもうプログラマーとして採用されると思う >>854
偏微分は大学数学の分野だから、高校中退者には難しいかもな
全微分、偏微分、この辺は大学1年で最初に習う分野だから、高校の微積分が分かれば独学でも何とかなるんじゃね?
高校数学をちゃんとやってれば、1週間位で理解出来ると思う paperspaceのサブスクって、これは月の途中に入ると損なの? >>974
Rしかわからんって人も周りには多いけど 30代Pythonクソチョン男は強姦魔の犯罪者!
あなたの近くにいます!
父母と祖父母の戸籍謄本を提出させましょう! トイレの排便シーンをaiで判定して健康を云々、てのがあったな
あれで痔も分かるんだろうか😅 微妙にpowershellを業務に使用してるんだがいい加減めんどくさい。が、使わざるを得ないっていう 少しだけpowershellを業務に使用してるんだがいい加減めんどくさい。 GPT-4でプログラム作らせてエラーが出るとそれを貼り付けて指摘すると
目的のプログラムが完成するとか
GPT-4に新しい言語を作らせるとかやっているけども
これ近い将来いろんなもんがオワンコになるな
真剣に野菜作りとか考えた方がいいだろう
食うもんさえあれば死なないからな GPTが凄いんじゃなくて機械的にできる作業を人間にしかできない高度な仕事と思い込んでいたケースが多すぎるだけだよ ITから普通のデスクワーク、法律までググるプラスアルファレベルの浅いタスクは消え去る。ただし、税理士とか20年以上前からブルシットジョブだけど献金して利権を作れる所は生き残る。 土方とかそっちの方が息長いんじゃないの
知識 + 複雑で細かい動き + 危険が伴う
ような仕事はAIロボットに任せられないだろうし
知識だけってのはもうダメそうじゃない
発想系もダメになりそうだけど 肉体労働系は無人兵器が民生転用され始めたら仕事がなくなる 人間の心にしか理解できない、生み出せない仕事がこれからは肝になってくるだろう
例えばサザン『真夏の果実』のイントロの良さをAIに説明しても理解してくれないし、勿論再現も出来ない
残業続きの従業員のメンタルは様子を見るからにボロボロなのに無理してセルフ健康観察表に◯付けてたらAIは「彼の心体は良好です」としか判断しない
これからの時代は心の力を鍛える必要がある ヒット作を作るのは学習に落とせる気がする
あるいはいくつか候補を作ってくれるので
人間が選択するとか >>991
今のロボット技術じゃ足場作るのも無理じゃないか
片手でパイプとか持ってバランス取りながらパイプの上を歩くとか当分無理そうだけど
動画でロボットがコケたら笑えるが
実務で鉄の塊が上からバンバン落下されても困るだろう >>996
そうなると受け入れられないんじゃないの
建築はロボットでこうなります、、人間サヨウナラっていう
そんなダイナミックな展開には出来ないだろう
補助ぐらいから入らないと 話が少しそれるけど3Dプリンターで作る家もあるんやで コンクリートを配筋しながら打つのは割と簡単に機械化できる気がする
外壁塗装もドローンでなんとかなりそうだし
むしろ内装が面倒かと
壁紙はこんなので照明はこれでキッチンはこれでという
今現在だと単価が安めの設備工とかが勝つんじゃなかろか このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 231日 20時間 22分 19秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。