【統計分析】機械学習・データマイニング31
レス数が1000を超えています。これ以上書き込みはできません。
!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
↑すれたてる毎に1つずつ減るので、減ってたら3回に増やしてたてること。
機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです。
■前スレ
【統計分析】機械学習・データマイニング29
https://mevius.5ch.net/test/read.cgi/tech/1597882603/
-EOF-
【統計分析】機械学習・データマイニング30
https://mevius.5ch.net/test/read.cgi/tech/1609459855/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured >>2
こっちはワッチョイあり
向こうは無しでしかもずっと前に建った重複スレ optiverのコンペ、全然歯が立たなかった... コンペって気軽にゲーム感覚で参加できるようなものですか?
プログラミングコンテストの問題を解くような気軽な感覚で参加できますか? AGI開発 明らかになった3つの課題
@脳神経科学とソフトウェア開発の両方に精通した人材が少なく、その育成が困難
A脳全体をカバーする神経科学知見は膨大であり、個人の認知能力に頼って脳全体の機能を統合したソフトウェアを設計することには無理がある
B脳の認知機能をソフトウェアに適切に反映させるためには、参照する脳の記述粒度を適切に選択する必要がある 今回山川と高橋らは、脳型AGI開発を
"脳参照アーキテクチャ(BRA)を共同で描く設計作業"と、
"BRAに基づいてソフトウェアの実装と統合を行う開発作業"
に分けることによる「BRA駆動開発方法論」を提案
「BRA」は、脳型ソフトウェアの仕様情報として標準化されたデータ形式で、
主に解剖学的構造を記述した「脳情報フロー(BIF)」形式のデータと、それに付随する「仮説的コンポーネント図(HCD)」で構成されている
まず神経科学の論文やデータを収集、整理してBIFを作成。
BIFは、脳内におけるさまざまな粒度の「サーキット」をノードとし、それらの間の軸索投射にあたる「コネクション」をリンクとする有向グラフだ。
─必ずしも脳を深く理解していない開発者であっても、HCDを仕様として参照することで、脳型ソフトウェアの実装に携われるようになる。
─作成されたソフトウェアの生物学的妥当性は、その構造と動作がBRAと一致しているかどうかによって評価され、
BRA自体の信憑性は、神経科学的知見の裏付けによって評価される 別に欲しいのは脳を再現したものではなく脳かそれ以上の思考力を持つプログラムなんだけどな 脳自体の仕組み解明にも役立てようとしてるんじゃね?
仮説に沿って人工的に作ったものと脳の比較 個人の仮説思考をまだ検討段階で表に出してるあたり、結論ありきで発表するんだろうな。お話しにならんね そもそも脳構造が機械学習と同値にあるとは物理的に証明されたんだっけ?
そもそも仮定を見誤ってる典型例かな。 脳のやり方を真似してシステムを作ってみるが
性能を上げるためにどんどん脳とは違う仕組みになってしまう
というのを繰り返しているような気がする >>16
脳でもbackpropが行われているのではないかと言った論文が出ていたと思う こういう論文があるから正しいんだ、みたいなこと言ってくる人がたまにいるけど
論文を元に再現実験をあちこちで実施して検証するのが科学的プロセスだからね >>18 は「こういう論文がある」と言っただけで正しさには言及してないが >>13
それな
脳をコピー(劣化コピー)しても脳以上の性能は期待出来ないよな
せいぜい疲れずに死ぬまでこきつかえるかも知れないが
どうせ脳のコピーだからやっぱり寝ないといかんだろうし 完全に妄想だけど睡眠はパラメータの蒸留に相当してるのでは? >>25
それでも、これまでに解決できなかった事ができるようになれば投資する価値はある 脳のシステムをコピーして、ソフトウェアに出来たらそれだけでも結構すごいけどな
今はそれすらできない 睡眠中に短期記憶の領域から長期記憶の領域に移されるとか
アルツハイマーの原因タンパク質を排出するとか
言われている
睡眠中は無防備になるのにそれでも必要なんだから何らかの機能や役割があるんだろうな 人間の視聴覚に介入することすら未だままならないもんな >ショウジョウバエの脳のニューロン数は約10万であるのに対し、ヒトの脳には約860億個のニューロンがある
ショウジョウバエでも未だにこの程度なのに、ヒト脳の完全解析なんて無理よ
富岳も、全脳シミュレーションにはまだ計算能力が足りない よくわからが神経の接続は繋がったり消えたり強化されたりすrんだろ静的解析だけではわからないじゃね >>34
すまないが確認してみるから
検体になってはくれまいか? >>39
俺もそこはイマイチだったけど、目的が違うんだと理解してる
ファインチューニングは、その名の通り微調整
公開された学習済みモデルの、出力層付近の重みを自分の(または新たな)データセットで学習させて適応させるとかで、ファインチューニングの前後でモデル全体の目的は変わらない
転移学習は、モデルをそのまま別の目的へ使用すること
例えばよくある例だと画像認識モデルを特徴抽出器としてSVMに流し込んで、分類させるのに使うとか
転移学習の前後では全体の目的は変わる(例では画像認識→画像分類) 特定の層だけ学習済みの層を使うのも転移学習なんじゃね?
オートエンコーダ層だけ他のをそのまま使うとか ファインチューニングだと層の数や各テンソルの成分数までいじる、って見たような
転移学習だと既にあるモデルに別の画像モデルを載せて学習させてた >>41
プリトレインのパラメータはフリーズしてffを新たに訓練すること? 機械学習において概念の獲得というのは可能なのでしょうか?
例えば犬種を見分けるモデルを作成する中で大きさという概念を獲得させ、その結果を転用して大きさから車種を判別するといったことは可能でしょうか? どこかのパラメータが大きさを認識するかもしれないけどそれを全く別の種類のものに適用したければ
どのパラメータが大きさを認識するか調べて抽出して新たなモデルを人間が作成するしかない
大きさという概念をプログラムが知らない前提なんだから人間が調べて取り出す必要がある >>47
やはり現状では人間の手が必要ですよね。
特定の概念に特化したモデルを予め作成し転用することは可能でしょうか?
例えば画像情報から大きさを判別するモデルを作成し、この大きさ判別モデルをモジュールとして別のモデルに組み込んで使うという形です。 人間の定義なんてものは主観的で
規則ベースの方式は所詮おれがかんがえたさいきょうのモデル、でしかなく
汎用性は無く例外に弱く使い物にならないのは散々見せられてきた その辺は言語モデルと画像認識と分類クラス名がリンクされたモデルというのを
作らないと難しいか >>53
記事を見つけて読んでみましたが面白いですね。
ttps://ainow.ai/2021/04/26/253364/
時間や場所の概念を獲得した(テキストに正しく反応できた)だとか、当初の目的以外の用途に使えたというのは実に興味深いです。
120億パラメータというのがこれまた凄まじいですが、特定の概念に関する部分だけ抽出出来たら宝探しみたいで楽しいでしょうね。 入門書読んでる途中で練習がてらUCIからEnergy efficiencyってデータセットひっぱてきたんだけど
すごく素直なデータセットだな。欠損値ないし、ただ単に重回帰分析しただけで決定係数が0.9越えてた
ここまで素直だとなにか罠があるんじゃないかと不安になる。諸先輩方はどう思います? >>56
その可能性を考えて、訓練データとテストデータ両方の
決定係数を見てるんですけどそんな差がないんですよね。
データ分ける時にシード固定せずに40回ほど試したんですけど
決定係数の差は、大きくても0.043、もとのデータも768件あるんで
過学習なんでしょうか? >>57
ちゃんとクロスバリデーションすべきだなとか思ったけど ごめん途中で書き込んじゃった
自明な予測との比較はどうなんだろとか思ったけどよく読むと予測精度じゃなくて決定係数の話ですね。
決定係数って学習データへの当てはまりの指標じゃなかったかな。学習データの分散のどの程度を説明できてるかですね確か。
訓練とテストに分割する意味がよく分からないなと思いました。 >>57
とりあえずテスト誤差と訓練誤差調べてみたら? 先輩方ありがとうございます。次にやることが見えてきました。
追伸、IP出るスレは苦手なのでこれにて失礼します。スレ汚し失礼しました。 >>61
勉強が足りてないですが自覚したなら努力を継続できるでしょう。
頑張って 新しい資本主義会議メンバーに松尾豊さんが選ばれましたね。 松尾豊さんのことをAIの第1人者と紹介していましたが、本当ですか? 最も〇〇なものの一つの表現と同程度に捉えておくと良いかと思います。
現在のAIブームの初期から積極的に活動されてたことは確かですし、語れる研究者は貴重な存在ですよね。 研究者として第一線で発表してるかといわれたら違う
ai研究の顔、広報としての役割が強い どのくらいの頻度で書いているかとかその内容とかも考慮した方が良いような 物理学とか医学でノーベル賞取ってる人はいるけど
この分野でノーベル賞的なものを取れる人はいるのか? 最初に多層ニューラルネットワークを考えた人は正直ノーベル賞レベルだと思う
ようやく花ひらいたけど基本は当初と何も変わってないし ノーベル何賞になるんだよ
新設しないと該当する賞がねーだろ >>79
だからノーベル賞的なものと書いた
数学だとそれはフィールズ賞らしいけどな ニューラルネットワークって物理の文脈で捉えることも可能だからゴリ押せば問題ない ノーベル賞の認知度の高さが一般人の科学への認識を歪めてる感はありますね。 > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw 情報系じゃなくて実験系の出身だから論文読むのも大変だわ
機械学習が必要になってPytorchやTensorFlow使ってるんだけど、
自分がやってることと言えば論文軽く読んでGitHubからコード落として、ネットワークを目的に応じて修正し自分のデータに適用してるだけ
詳細なアルゴリズムはよく理解できてないことも多い
全く新しいモデルを提案する人達はすごいなと感じます >>93
同分野でも原理か応用かでやってることは全く違いますからね。
原理を知っておいて損はありませんが、応用で一番大事なのは対象となる事象の理解なんて言われるくらいですし。
パソコンを使って何かを創る人とパソコンの仕組みを研究してる人って感じですね。
特定分野の一技術がこれだけ広く利用されている現状はなにげにすごいことです。 K-meansするとき、標準化や正規化って必須なの?
特徴によってスケールが違うんだけど。。。 >>98
データを歪めてるというよりも、異る値を公平に比較するために揃えてる感じですね。
正規化は単体のデータではなくデータの集合に対して行いますので、単体の値が変化しても集合内のデータ間の関係(例えば距離の比)は保たれます。
手法が見ているのがこの生の値なのか関係なのかが問題で、生の値をそのまま使う場面はかなり稀だと思います。 >>95
例えば身体測定のデータが身長km体重gで入ってたらどうなると思う? NFTゲーム、ブロックチェーンゲームに今すぐ参入しなさい
これからこの市場は100倍になる
2年もしたら先行者利益が失われてブルーオーシャンからレッドオーシャンになるだろう こんなとこで宣伝しなきゃならんほどアブナイのか... 機械学習やDeepLearningにおいて、線形代数ってどのレベルまで勉強したらいい?
行列の計算方法がわかるくらいじゃ不十分? >>105
ベクトル値関数のベクトル、行列でのフレェシェ微分を計算できるぐらいは必要。 テンソルの演算と多変数関数の連鎖率とミニバッチ勾配降下法だけで全て対応可能だよね
ややこしい微分方程式の解を求めるための重積分の計算とかとか
ラグランジュの未定乗数法もいらないから数学的には相当楽勝
おそらく機械学習の分野の中でも1番シンプル
この分野を難しく解説してる本もあるけど
想像以上にめちゃくちゃシンプルだよ
大学で物理や数学やってた人からするとめちゃ簡単に感じる
この簡単な仕組みで世界を変えたのは本当に凄いとしか言いようがない 数学の行列もいじれない人は既存のソフトウェアで十分。 ツール化が進んだので結果的に数式はいらなくなっている
新しい分野に適応するのはほぼ不可能だろうな
先行事例があるものだけがうまく行く可能性がある
それでも条件が違うとうまく行かないだろうが 今のAIってかなり雑な処理してるように思えるんだけど
生体もそんな感じだから良いのだろうか
こんな雑にやってたらじきに頭打ち来るよね?
gpt3やらtransformerベースのcv見てるとそう思う > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw クジラ飛行机の『PythonによるAI・機械学習・深層学習アプリのつくり方』という本を読んでいるのですが、はがきの郵便番号の枠の抽出処理が
原始的すぎるので驚いています。
抽出領域のサイズを大きすぎたり小さすぎたりしないようにしていたり、抽出した輪郭同士が近すぎるのは駄目とか細かなルールを
コーディングしています。
機械学習って、あまり楽しいもんじゃないですね。 本当に必要に迫られている人とか仕事でやっている人なら、一生懸命やるかもしれませんが、そうでない人のモチベーションってなんですか?
苦行でしかないような気がします。 それは機械学習ではなくて前処理だ
前処理は苦行であるが必要なのだ
ちなみ、本を読んでないからなんとも言えないところがあるけど、おそらくもっとスマートに抽出する方法はある。
機械学習のエキスパートだからといって
画像処理のエキスパートとは限らない
あとソフト屋さんはソフトでなんとか
しようとするけど、照明とかカメラとか
ハードを工夫することも大事 >>122
深層学習でも面倒な「前処理」をするんですか? >>118
それは古い手法
今時の物体認識はそれを自動でやる クジラ某、とか良く分からん奴の本なんか当てにすんな ひまわりやなでしこを開発した人か
マレーシアの東海岸に住んでるんだっけ > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
ゲリ便をじゅるじゅると
うまそうに食ってるw ホテル、民泊などの料金はダイナミックプライシングになっていると聞きます。何ヶ月か前に予約すると安くて、当日はビジネスユースで高い?固定の価格の人もいる?
売上を最大化するプライシングを予測する場合、説明変数、目的変数はどのように設定するものでしょうか。
以前にsignateでコンペがあったのですが、目的変数が部屋の価格?になっていて予約日やその時点での空き部屋数などの考慮はしていなかったと思います。
これにちょっと違和感を感じていました。 >>124-128
ありがとうございました。
>>127
OpenCVの使い方とかが分からなかったのですが、サンプルファイルを動かしてみるとこんなことができるんだというきっかけにはなる本だと思います。
自分のパソコンに保存してある数学の講義動画のmp4ファイルを使って、サンプルプログラムを動かしてみたら、動いている人物=講師が
緑色の枠線でときどき囲まれていて楽しかったです。 transformer系の論文、ネタ切れの感ない?
蒸留やモデル圧縮した話ばかりに思える https://youtu.be/rxKghrZU5w8
パランティア
大量の情報を瞬時に統合、分析できる高速データマイニングシステム
法人向け、製品の活用例:軍事 Windowsの「ペイント」で1桁の数字を手書きで書きました。(白い背景に黒い文字)
MNISTの数字のデータとフォーマットを合わせるために以下の処理をしました。
「9」を書いたファイル'my9.png'を読み込んで処理しています。
その後、TensorflowでMNISTデータをもとに学習したニューラルネットワークで、自分で書いた数字が
どの数字なのかpredictしようと思ったのですが、エラーが出てしまいました。
im = cv2.imread('my9.png')
im = cv2.cvtColor(im, cv2.COLOR_BGR2GRAY)
im = cv2.resize(im, (28,28))
im = 255 - im
plt.imshow(im)
plt.show()
im = im.astype('float32') / 255
どこがおかしいでしょうか? 説明変数だの目的変数だの日本語訳がわかりにくすぎませんか? false positive false negativeは毎回どっちやねんてなる パーセプトロンで、重みを0で初期化してはいけない理由がわかりません。 重みを0で初期化しても学習で重みが更新されていけば問題ないんじゃないですか?
誰かがそう言っていても実際に問題がなければ間違いだと判断していいと思います
例外的に問題が発生するかもしれないけど、その場合はその条件を明らかにしたらいいと思います NNが学習する仕組み書いてある本とかサイト読めばすぐ分かるのに 俺今までPytorch使ってたんだけどKerasのほうがよっぽど使いやすいなこれ
こらゃ流行るわけだわ 自分はkerasからPytorchに変えたよ
論文の実装がPytorchだらけなんでコード読むのに必要になったからさ
今ではPytorch派ですw Kerasは統計の人(非エンジニア)
PyTorchはプログラマの人
にそれぞれ使いやすいって印象 >>152
点群処理関連がほぼ PyTorch なんで入れたが、cuda のバージョン依存が厳しい〜 >>154
画像系から画像以外に行こうとしたらデータ読み込み周りが分からなくなってPGだけど自信無くしたわw
df読み込むのKerasならすぐなのにPytorchはデータローダー噛まさないと行けない?から面倒くさい
ネットワーク構築以外にも学習にたどり着くまでの敷居が高い気がするわ 異常検知の分野って特徴量の抽出だけにモデル(ResNetとかEfficientNet)を使う方法が最近覇権とってるけど、教師あり学習とかオートエンコーダーではもうかなわないのかな どうすれば脳の仕組みを「理解」できるのか: 分かり方は一つじゃない 脳を解明する4つの方法
https://rmaruy.hat○enablog.com/entry/2019/09/05/225258
『神経科学者はマイクロプロセッサすら理解できなかった』
https://rmaruy.hat○enablog.com/entry/2019/01/29/225106 Google騙る迷惑電話?ネット注意喚起も... 実は公式調査、同社が発表「営業時間の確認中」
https://www.j-cast.com/2021/11/12424821.html?p=all
>Googleアシスタントからの電話は会話型AIを採用している。
>ツイッターでは精度について、「AIなのか生身の人間なのか曖昧で、絶妙に違和感のある話し方」だと評する声も。
Google Duplexが日本でも稼働 「怪しさ満載なんだが、、、」
「怪しいおじさんの電話 詐欺かな」
「とにかく気持ち悪かった」
>この電話かかってきたけどマジで気持ち悪かった
>機械と人間の中間くらいの話し方で会話のテンポもおかしいし
https://www.youtube.com/watch?v=D5VN56jQMWM
英語版はそこまで気持ち悪くない 人間てnnでend2endのシステムを作っても自前ルールを後付けしてちょっとでも性能を上げようとしがち だってちょっといじった感出したいしさ
Githubほぼそのままでいけましたなんてサボってたみたいじゃんw csc matrixをarray化するのに10.7TiBが必要でoomが出た
最初の数行だけでも展開できないものか 【予測最前線】線状降水帯 カギは“水蒸気” 2時間前に降水帯の発生を診断
www.youtube.com/watch?v=8UnovsW6OP4
https://www.jma.go.jp/jma/kishou/shingikai/kondankai/senjoukousuitai_WG/part1/part1-shiryo3.pdf
今後、富岳スパコンの成果を応用し、LFMの物理過程記述式の改善、高解像度化を実施
LFMのアンサンブル評価システムも開発中 ※気象庁
理研AIPと協力し、人工知能を用いた統合ガイダンスを開発中 ※気象庁,理研
雲の発達過程、推移をAIに学習させ、パターンを抽出 ※WNI
https://i.imgur.com/d1xgflH.png
お前らが持ってる機械学習の技術を、天気予報にも使ってくれ 予報できても発生は防げないと
避難が必要になるし家屋とかの損害も防げないかもしれないな
避難には時間もかかるし
予防ができたらいいけどな
地震とか他の災害もだけど Kaggleに興味を持って入門書を見てみたら、まず最初にpandasでデータをうまく加工できないといけないということが分かりました。
pandasについての本を読んでいるのですが、ルールが独特すぎて苦行です。
みなさんはpandasをどうやって習得しましたか? >>176
定番のこの本かな
『Pythonによるデータ分析入門 第2版』
ちなみに、どういうところが独特だと感じました? >>177-179
ありがとうございました。
>>178
その本です。
スライスとかブロードキャストが独特に感じます。
例で理解するというアプローチで、きちんとどういうルールなのか書き下してくれていないので、モヤモヤします。
もちろん、大体こうすればいいだろうというのは分かるんですが。 >>180
スライスはPythonの機能だよ
そしてブロードキャストはNumPyにもあって、形状が違うテンソル同士でも変形せずに簡単な表記で表せると思って使うといい
どちらも配列を扱う上で便利な機能で、スライスとかは特にPythonで喜ばれる機能だと思うが、終わりの添字は含むのかとかは慣れるまでは大変かも ここ見てるとMatlab使用してる人がいないのですかね。
車両関係含め大手企業は基本matlabをベースに開発進めてるんですが。。 何に使うかによると思うんですけど?
うちは大手メーカーだけど、そもそもMATLAB使ってない MATLABって20年くらい前のツールかと思ってた >>183
まあ大企業は古い社風のとこ多いからね、、 matlab独自の強みはRやPythonのライブラリに食われてきてるから使われるとしたらsimulinkとかメインじゃね matlabを使ったことがないのだけど、
PythonやRと比べて有利なところってどのくらいあるのですか? Matlabって数値解析の権威が作った会社でしょ。
PythonやRと比べて、正確で速いの? 少なくともsimulinkの代替になるものは今のところ存在しないな
simulinkっぽいものならいくつかあるけど > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
ゲリ便をじゅるじゅると
うまそうに食ってるw Pythonでmatlab/simulinkの代わりができるなんてとてもじゃないけど思わないけど。
>>186
古風とかそんなレベルじゃねーぞ そもそも論、お金取って確実に保守してくれるソフトウェアを企業が使用するのは当たり前。
>>184
大手と言っても個人で使用してるような環境でしょ? だーかーらー、分野によるって言ってるじゃん
日本語通じんのかおまえは なんかのツールボックスに解析的に微分したりする機能があったような
Pythonにもあるかもしれないけどあれは便利だった >>197
Wolfram Language + Jupyter Notebookを使っている人いますか?
無料で使えますが。 >>199
使ってますよ。簡単なことするだけなら、普通にMathematicaだよね。
Wolfram Langugaeに少し癖があるけど。 autokerasのTimeseriesForecasterはkerasモデル保存/読込どうすればいいのでしょう?
ImageClassifierはAutoModelが使われているのでexport_model()によりkeras modelが取得できます
が、TimeseriesForecasterはAutoModelが使われていないのでできません
autokerasの外へはどうやってmodelをもっていけばいいのでしょう? すみません。automodel使われていてexportもできました
(やりたいことがエポックごとに呼ばれるcallbackの中でのexport_modelで、これができないだけでした。どうやればcallback中でできるのかまた悩んできます) > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
ゲリ便をじゅるじゅると
うまそうに食ってるw ゼロから作るDeep Learningって写経する意味あるのかな? >>204
ダリっぽいとか他に似てるなら創造的じゃないな >>205
人によるとしか
復習で読んでるなら不要では >>205
写経するならフレームワーク編が良いよ
それまでのコードを全部見直して一番綺麗な形に纏めたのがフレームワーク編
ライブラリも実質chainerの再発明だし
パフォーマンス抜きにしたら実装面では一番よく出来てる フレームワーク編は勉強になりました。
おかげでPytorchにもすんなり入れました。 sklearnってどうしてfitとtransformなんだろう >>213
すごいね
最近の論文はPytorchで実装されてることが多いんで、kerasから乗り換えました
自分は論文のGitHubでの実装コード読み解くのに数日かかるよw > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
朝鮮人はゲリ便をじゅるじゅると
うまそうに食うw Deep Learningは非常に自然で原理を理解するのはそれほど難しくないと思います。
一方、色々とある機械学習の手法のほうが理解するのが難しいように思います。
あってますか? Deep Learningも色々あるから、その色々を理解するのは面倒
いわゆる機械学習も原理だけなら理解するのは簡単 59.147.205.222 で検索するなよ、絶対にな 〇〇県民は理解しやすいけど地球人には色々あって理解するのが難しいみたいな >>222
バックプロパゲーション
多層
パターン認識 関数近似のフィッティング問題に多層ネットワーク使いました。
方法としては少しづつのサンプルに対して微係数計算して、少しづつ係数を更新します。
これだけ。
なぜうまくいくか、どういうデータが良いか、具体的なパラメータはどうするかってのは難しいが
原理だけならこれだけだわな。 曲線あてはめ ← はぁ…
機械学習 ← なんか凄そう >>232
解釈性の問題なら賢い人が散々やって無理だから無理なんだと思うよ
一昔前はベイズで説明できるとか言ってる人がいたが
ベイズ完全にオワコンだし 解釈性からgradcam派生とかあるじゃん
それにベイズがオワコンとかkaggleしかやってない人かな? 動作の原理、という意味なら手順と一緒の意味もありうるか > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
朝鮮人はゲリ便をじゅるじゅると
うまそうに食うw 原理って話なら誤差関数の期待値を最小にする関数を求めるというのが原理原則だぞ
これはビショップ本にもカステラ本にも書いてある
その手段として>>232のような関数近似のフィッティングを考えるわけ
こう考えると頭が整理できると思う 原理に基づいてそれをやるときに必要になるのが誤差関数や逆転伝播求める話。それはどちらかと言えば定理か?
この辺は国語の問題だなw 確率解釈は後付けだろ。
どうしても連続値で取り扱わなきゃで無理くり理由付けしただけだわ。
それも理解してない奴が無理矢理ベイズ解釈取り入れて行き詰まるわけだ。
そんな理屈つけても性能とほぼ関連がないからね。 そこら辺がスッキリわかる良書が、高橋麻奈著やさしい機械学習。
乞うご期待。 ニューラルネットワークの仕組みは
層構造に素子を並べたものでインパルス関数を線型結合し任意の関数を作れるから
任意の入出力関係を重みの変更で作れる
重みはデータから誤差を勾配降下で小さくすることで得られる > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
朝鮮人はゲリ便をじゅるじゅると
うまそうに食うw テキストの識別問題だとbowとembeddingでそんなに差は出ないよね? 変な言い方になった
単語を素で扱うのと埋め込みして扱うのとではそんなに差は出ないよね? 特定単語の有無で識別出来る程度の問題なら変わらんと思う >>246
常にやった方が良いと思う
埋め込みって何をやってるかって
要は次元削減なのよ
高次元から低次元への写像を作るのが重要なタスクの場合はやるべき
例えば推薦システムや自然言語処理などね 自然言語処理のフレームワークってTensorflowとPytorchとDezeroならどれが良い? tensorflow
でも素のtensorflowを使うってならpytorch とりあえずtensorflowとDezeroを試そうかな? pandasの本を読んでいる。
早くkaggleをやれるようになりたい。 >>250
使いやすさではpytorchだけど同じパラメータでも
収束の速度や精度に違いが出るから両方試すしかないんだよね
めんどくせぇわ 結局論文のコードそのまま取ってくるとかだからtensorflowでもpytorchでもどっちでもええわ。
今時は可読性もそんな変わらんし。 paper with codeだとpytorchのほうが多いな。 bertとdoc2vec等の埋め込みの違いってなあに?の > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
朝鮮人はゲリ便をじゅるじゅると
うまそうに食うw >>259
埋め込みってのはワンホットベクトルの後ろに全結合層を入れることだよ
それらのモデルは全部そうなってるでしょ >>261
後続のタスクがうまくいくように調整したfc層の出力? >>262
まあそんなイメージ
ワンホットベクトルを一旦全結合層を個別に通すことで
特徴量として学習がうまくいくようにしている
word2vecなどはそのおかげで単語の意味を学習することに成功した
これは他の分野にも応用できてどういうものを学習させるか?で特徴量を自動的に学習できることを示している
とんでもない発明だよ
計算量的にもワンホットベクトルとの積は対象の重みをインデックスとして取り出すってだけで良いのも味噌
テンソルの演算がいらないから高速 AIって名前だけで受注取れる時代は既に終ってる。
https://xtech.nikkei.com/atcl/nxt/column/18/00001/05585/
機械学習なんてタダのツールです。本職にはしないようにしましょう。 sklearn動かしてるだけの技術者は既に淘汰され始めてるよ
それよりも基礎集計しっかりやって知見を得ることの方がただモデル作るだけよりも何倍も意義がある kerasやpytorchで何か検出しましただけの人も淘汰か ぶっちゃけそれを単に動かしてるだけの技術者っているの?
基本的に他の専門があって、データ解析のために必要に応じて機械学習を使ってる人が多いのでは? 技術者はただ単に動かしてるだけ(指示待ちプログラマ)
ほかに専門があって必要に応じて使うのは研究者かな(自分で動くプログラマ)
ま、言葉の定義なんてどうでもいいけど、どっちが多いかと言えば圧倒的に前者じゃないかな
AI系のいわゆるIT奴隷がほぼ全て含まれる 仕事なら客がいるわけで
その客の問題解決になるように作ってるはず
研究者は成果がなんの役に立たなくてもいいのなら自分の興味だけで研究したらいいけど
そんな研究に金を出してくれる人はいるかわからない その客がツール使えば機械学習できるようになってきてるってことだね
社外に頼まなくても社内でできるようになりつつあるし 大企業なら統計学に詳しい人がいるだろうからね。
プログラマと協力すればある程度は何とかなりそう。 統計学ってカウントベースの統計学の方?これ利用価値あるの? 今の統計学は深層学習もやるぞ。AIしない統計学は10年以上に終わってる >>275
大企業ならグループ内に研究所があったりする 企業にとって大事なのは確実な課題解決の手法であって機械学習は課題解決手段の一つに過ぎない。
お金にならなかったら縁を切るだけ。
4〜5年前あたりからAIは全ての課題を解決出来ると錯覚してる輩がいてホント困る。 趣味とか小さな会社だったらそうなんだけどな
ある程度大きくなってくとAIでやれと言われたらAIでやらないといけない
それで解決できるかや客が満足するかは問題じゃないし「これはAIには向かないです」なんてひっかきまわすのは嫌われるし、そもそも仕様書作ってるとこに意見する経路がない うちは大手メーカーだけど、AIでできることできないことの取捨選択が進んできたわ
数年前は何でもAIって雰囲気もあったけどね AIは人間に出来ることはすべて出来るってだけで、人間に出来ないことはAIにもできないことが多いからね。 >>283
人間にできることをAIで全てできる
なんてことはないだろう 以前は創造することは出来ないと言われてたけど、今では絵を描いたり作曲したりクリエイティブな作業もできるようだけど。 中東三大宗教において創造主とは神を意味するらしいので、創造するとその世界の神になるのでは? 人間も絵を描く技能は過去の作品の模倣から始まりますし、その意味では現在のAIは十分創造性を持っているのかもしれませんね。 人間の感性にマッチするような独創的な絵をAIに生成させるのはムリだな
でもそれは今はムリってだけで来年、再来年にはどうなってるか分からない。限界はAIを作る人間側にあるんだよ AIの進歩によって人がドンドンいらなくなって行くのだけは確かだな
そして日本はこの分野において完全な負け組だということ
つまりこの分野が絡んで人を減らしたり、製品に付加価値を付けられたりすると
勝てないということだね 少子高齢化で働き手が減ってるから人手がかからなくなるのは良いことでもあるような 弱った人間が死ななくなると感染症が広がりやすくなるのでは?
人類はそうやって自滅すると思います。 神なんておのれを助けるものをたすくだろ、役に立たねー ドンドン違う仕事ができると言っても
日本は新しいことにチャレンジしない国だからね
世界で創業から100年以上経過した企業の41%が日本企業とか
200年以上経過した企業の65%が日本企業とか
会社の96.3%が同族企業とか
新興企業のほとんどが数年で消滅して大きくならないとか、、、
日本の体質を物語っている
失われた30年と言われているが
IT云々から始ってAI、仮想通貨と国と企業が自らの手で
新しい分野を殺してきたようなところがあるんで 労働力を安く買い叩くことでAIに対抗しようとしてるという地獄が日本の現状 > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
朝鮮人はゲリ便をじゅるじゅると
うまそうに食うw 少なくとも今の学生は機械学習をメインにせず専門の知識習得に務めるべし。
例えばロボット関係やりたいのに制御工学飛ばして機械学習の上っ面だけ身につけてる輩は不要人材。 新たなアルゴリズムを考えたりできる研究者でもない限り、機械学習専門家と言いながら実態は既存のライブラリのうまい組み合わせ方を知っているちょっと頭のいい作業員でしかないからな
そんなものはライブラリや周辺のツールが便利になれば不要になる仕事 自分の専門領域プラス機械学習は今後も大きな武器になるが機械学習だけはマジでやめとけ
そんな人材が求められていたのは数年前まで
最先端の深層学習研究者は別だけど、そんなことできるの極々一部の天才だけだ あと機械学習の専門研究なんて、現在ただのラベリング合戦の研究だからな。
名前を付けた手法をいかに精度良く見せかけていかに周囲に素早く拡めるかの世界 プログラミングやったことない&できない奴が始めるには最適な分野
hello worldレベルの知識ですらやってけるし、論文読むのに忌避感なけりゃ一か月でおまえらより上になれる その通り
だから機械学習だけしかやってない人は危機感を持とうね 英語やプログラミングも専門分野と合わさって初めて価値を発揮しますからね。
専門分野なしにとにかく流行りのツールを学びたいという人はいつの時代も見られるものです。 寝る間を惜しんで機械学習コンペに精を出す人もいるけどむしろコンペを開催する側の能力がなければ近い内に淘汰される側となる。
専門外の人に解かせて使い物になるモデルが出来上がるということは問題設定や事前に収集したデータが適切だったということであって、
そこまで準備する能力があればモデル生成作業はコンペ・外注・自動ツール等々、その時点で一番コスパがいい方法を選ぶだけ。 プログラミング自体そのうち淘汰されるからな。やる意味ないぞw
でも今は意味なるんだよ。今がよけりゃそれでいい そりゃどんな仕事もそのうち淘汰されるわ。
だから働かないとかただの馬鹿だろ。 「そのうち」でひと括りにする方がよっぽど馬鹿かと
淘汰されるのに数十年かかるならほとんどの現役世代は気にしなくていいけど数年で淘汰される可能性がある技能をせっせと身につける必要はない なんつーか、、
AIって言葉が先行し過ぎ。
数学的にただの最適化問題で解ける問題をわざわざ機械学習(例えばNN)で解いて何をやってるんだろうと思ってしまうこと多々あり。
一応念のため言っておくが元々数学的な手法を機械学習やってるやつが種々の数学的な手法を勝手に『教師あり学習』『教師なし学習』『強化学習』に分類したのが始まり。
DLが出て加速的にこの分野人気が出たが元々の数学の背景は知っとけ。 訂正
機械学習やってるやつが種々の数学的な手法を勝手に『教師あり学習』『教師なし学習』『強化学習』に分類したのが始まり。 >>315
勝手に分類したというソースとかあります?
最適化や統計学を参考に発展したのかなと言ったら激怒されたことがありまして。
でも、例えば最尤法なんてのはロナルドフィッシャーの前からあるわけで。 >>313
プログラミングがあと数年で淘汰されるとか本気で言ってるとしたら本当のバカだよ。 ここで言ってるのはプログラミングじゃなくて「既存の機械学習ライブラリにデータを突っ込んでいい感じのモデルを生成する作業」だぞ >>320
昔よりどんどん設定が楽になってるからなあ
深層学習関連で厄介だったのって結局はデータセットをどんな形式(XMLかJSONか)
でしかもそれを各要素をどんな順番にしてどのディレクトリに置くかで動かないとか
あるいはオンプレミスならGPUドライバのインストールとか
そういうIT関連の初歩だけど躓きやすいところでうまく行かない人が多かっただけで、
そのお膳立てが出来てるならそんな難しい話ではないからなあ >>318
その3つはここ最近できた分類。
2010年以前に初版の機械学習の本を参照のこと。その分類殆ど書いてない。
例えば『カーネル〜』『パターン認識〜』とかの本を読んみな。
>激怒された
どの分野の誰が激怒した? >>322
ありがとうございます。記述がないか見てみます。
> どの分野の誰が激怒した?
もう辞めた元同僚です。詳しくは知りませんが、建築系の分野で深層学習の応用をやっていたようです。 >>322
dudaとhartの本1973に既にその分類あった気がする >>320
そんな輩は淘汰とかの前にそもそも成り立ってすらいないがな。 1クラスSVMで正常データが原点から遠く、未学習データが原点付近に写像されるって説明よく見るけどどういう原理なの? シューティングゲームやらせたら最初はスコアゼロ=原点近くだけど、そのうち点が入りだして原点から遠くなって
でもそれ以上点がとれなくなってくるとそこで収束する(何万点って決まったとこ以上遠くならなくなる)みたいなことかな コロナ感染者数予測ですら当たり外れしか見えず外れただろ謝れとか言う阿保が多いから
機械学習でどんなに精緻にモデリングしても見合った成果が得られない気がする
線形回帰くらいじゃないと納得しないだろうな 阿保に評価されることを成果目標とするならどんなに頑張っても成果得られないだろうな
でもそんなとこを目標としてないからw 非専門家に理解させるのが面倒だと思うなら機械学習だけやっていたのでは不十分で、機械学習の成果を利用したサービスを自分で立ち上げる必要がある
そのサービス自体に価値があれば中身の機械学習が一般人に理解不能なアルゴリズムであろうと外部の人には関係ない
DeepLとか中身がどうであろうと便利だから使われているが、もしDeepLのアルゴリズムだけ作ってそれを誰かに売りたいならその説明をして理解させなければ売れるわけがない >>331
8割おじさんが最近出した本読んだんだが
モデルの説明がめちゃくちゃ多い
機械学習も取り入れてるみたいでちゃんとやる人がやれば予測できるんだなと思った
国民がバカすぎる >>334
予測できるはずがない
統計学をちゃんとやっている人なら
データが恣意的なので無理
とすぐに分かるはず どこまで予測するかだよ
日々の新規感染者報告数を一人の単位できっちり当ててく予想なんてのはそりゃできるはずないが
元データが恣意的だったり正確じゃなくてもおおよそなら十分予測できる
過去の動きから実効再生産数は連休に跳ね上がってるから、連休後は増えるなんてのは馬鹿でも予想できるだろ
だから日付だけでなく休日情報をデータに含めとくとかそういうのの積み重ねだよ >>335
そりゃ予測なんだから当たり前でしょ
問題はそういうモデルを専門家が色々出すことで
政府や国民が判断できる環境を作ることだよ
現場ほとんどの専門家が何も出してない
Googleと8割おじさんくらいしか出してない 今現在知りうる情報から少し先の状況を大まかに把握することは良くやる事だよな
スポーツなんかでもボールの動きの少し先を予測して動くし
対戦形式だと相手の少しの動き予備動作とか癖とかで予測したり
台風の進路予想とかも
経済活動や人間の活動や会社の業績予想、株価予想なんかもある
ウイルス感染も人間の活動とウイルスの特性とかで大まかに予測できるだろう >>338
だから「できない」からやらないわけで
せめてランダムにPCR検査をやってくれたら
参考になったのに
今後もランダムサンプリングはやらないのだろうけど ランダム検査って検査受けたくないと考える人も対象に選ばれれば検査しなければ無意味なわけで、
例えば受験生とかその家族が今検査して陽性なんて出たら困るから絶対検査など受けられない
他にも同様な事情で受けない人が出るので結局対象に偏りが生じるから本当のランダムにはならない ランダム検査したとして、その結果をどう活用するの? ランダム検査すれば信頼性の高い市中感染率の推移データが得られる
そのデータをLSTMにぶち込めばっていう古典的な統計学に基づいた予測だろうな
いわゆる深層学習的な考え方じゃない >>343
それを市中感染の注意喚起に使うってこと?
新規陽性者数の報道だけでは足りないかな?
新規陽性者数って蔓延状況の関数とも考えられるよね。 何に使うかは別次元の話
新規陽性者報告数は蔓延状況の関数だけど、検査場が飽和したら数値が下側になるし、大規模無料検査が行われたら上側になる
真の感染者数を求めるには変数が多すぎる関数なんだよ
ランダム検査の方がそういう変数を少なくできる >>345
ランダム検査の結果を何に活用するか知りたいのが最初の質問です。
新規陽性者数が注意を要する指標なのは同意で、陽性率を報道してるのもそのためかと。
ランダム検査は強制力を伴うので、それに見合った活用法があるのかなと思って。 検査せずに動き回ってる市中感染者数が見えてくる
例えば、そういう人たちと感染したらリスクある基礎疾患抱えてるような人が接触しないようにする
〜ワクチンパスポートの基礎疾患バージョンみたいな新たな対策をする根拠(効果予測)となる
でも一番大きいのは疫学的な科学データの蓄積。今役に立たなくてもデータを集めること自体に価値がある
協力金として100万円差し上げますってすりゃいいだろ。「ハズレた!もっと大規模にランダム検査しろ」ってクレームしか起きないぞw 科学データの蓄積
といっても株によって性質がかなり異なるみたいだから
意味があるかどうかは疑問
国が大好きな前例に基づいた対策には使えるけど
新例は前例とは違うのであまり意味がないかと 未来はわからんから計測する必要ないとかどんだけ思考停止だよ。
言うほど増減のパターンなんてそんなにはないわ。 株価とかじゃなくて変異株のことだろ
従来株の感染者数データからは、オミクロンのような変異株が流行したときの予測ができないってこと
逆に通常株としての予測値との差から変異株の実社会中での特性を見出すこともできるし
データはあればあるほどいいのにな。データを集めるコストに見合うかっていうとまた別問題だが 感染経路とか基本再生産数とかウイルスの特徴があるからそれらを参考にできると思うけどな
実行再生産数は色んな条件を統合した結果だと思う
ウイルスの特性とか人間側の感染対策とかワクチンの有効性とかワクチン接種率とか
オミクロン株は感染力はデルタ株より高いとわかれば
感染者数は増えると予想するのは自然だと思う
有効な感染対策が普及したらそれで変化するだろうし 神経回路は潜在的な統計学者だった
─理研、脳神経が自由エネルギー原理に従っていることを明らかに
https://www.riken.jp/press/2022/20220114_3/
>どのような神経回路も「自由エネルギー原理」と呼ばれる近年注目される脳理論に従っており、
潜在的に”統計学的な推論”を行っていることを数理解析により明らかに
>神経生理学的に妥当な「コスト関数」を逆算し、それが自由エネルギー原理のコスト関数と同一であることを数理的に解明 自由エネルギー原理 とは
→
生物の知覚や学習、行動は自由エネルギーと呼ばれるコスト関数を最小化するようになっており、
その結果生物は外界に適応できる という理論
今回、
神経回路のコスト関数と、自由エネルギーは数式の構造が全く同じであることが判明
統計学者が行うように、観測データから背後の原因をベイズ推論することを自律的に行っており、
そうして外界を模倣することが”神経回路の普遍的な特性”であることを証明 最適な未来予想の実現化をモニターする神経細胞の発見 ゼブラフィッシュ
https://www.riken.jp/press/2021/20210929_2/index.html
>最適な未来の予測(脳内モデル)と現実との予測誤差を脳内において表現する魚は、その予測誤差を最小化するように行動する、
すなわち見える景色がいつも後方に移動するように休むことなく尻尾を振り続けることで、
素早く最も効率的な逃避行動を取ることができる エネルギーが最小になるように関数系が確定するのは何となくわかるが‥、、
ここは機械学習のスレです。
脳の話は他でやれ。 正規化されてない確率密度をエネルギーって言ってるだけだぞ。 それは失礼。より最悪やわ。
>>353-356誰も信じないから去れや。 自由エネルギー原理は、簡単にいうと「生物の知覚や学習、行動は自由エネルギーと呼ばれるコスト関数を最小化するように決まり、その結果生物は外界に適応できる」という理論です。
と下のサイトに書いてある
https://www.riken.jp/press/2022/20220114_3/ Generative Asoko Networks モザイク外してモロ映像ができてたんなら猥褻物陳列罪に問われそうなもんだが違うのか
公開するのにわざわざモザイクかけ直したってことはないよな?w
猥褻物とは認識できないほどクオリティ低かったか モザイク外したのではなくあくまで何らかの方法で生成した画像をモザイク部分に貼り付けただけだからな GANで顔のすげ替えみたいな昔のコラ画像はできるけど、やっぱ変な不自然さは残ってるね。微妙に視線がおかしかったり表情がほとんど変わらなかったりってなってる。
実用性はちと微妙 >>369
顔を変えるのはディープフェイクって言うので少し前に問題になってた
中国で作られてたと思う ディープフェイク出たときはこんなに簡単にうまく合成できるなんてと感心したっけ
陰影もそれなりについてるし Kerasを使わない純粋なTensorflowを学ぶための参考書ってある? >>372
公式ページで十分じゃないか?実際自分は自動微分付きCPU/GPU切り替え可能なテンソル計算ツールとして使ってるけど
公式ページと、謎のエラーはstackoverflowでこまってない。 >>369
上手く出来てる奴は見分け付かないし、学習が足りんだけだと思う >>371
去年のSSIIでそれを見破る方法の
講演があったらしいが聞き逃した。orz
郡飛系のオブジェクト検出が一昨年。
これも聞き逃した。orz
※SSDとかYoloが苦手とする分野との事 眼を瞑っている学習データが少ないから
ディープフェイクは瞬きしないとか何とか https://ledge.ai/new-ai-institute-by-gebru/
この記事、間違ってる
修正すれば投稿していいと言われたのに、ゲブが修正せずに出せないんなら辞める、と啖呵を切ったら、ググルからじゃあどうぞと言われ、ググルから辞めることになった Rの勉強初めて1ヶ月ですが楽しいです
仕事への活かし方を知りたいです >>382
https://ja.m.wikipedia.org/wiki/カルバック・ライブラー情報量
2つの分布が似ているかどうか
似ていると小さな値になる >>381
仕事で活かすならまずは社内のERPやCRMで得られるcsvファイルを加工する所から始めるといいと思う
時系列データの加工やtableの集約、簡単なクラスタ分析で傾向視覚化することに慣れて、そこから色々なライブラリの活用などを勉強して適用範囲を増やすといいのでは?
ネットにも色々と情報があるけど、個人的にはamazonのUse Rシリーズの本から興味のありそうな本を買って読んで使っている
当たり外れがあるけど、個人の趣味と仕事の実益を兼ねられるので悪くないと思っている
これで休日や移動時間の使い方もかなり変わったけど、コロナで余計な飲み会などがなくなってよかったかも >>387
ありがとうございます。
勉強するにはいい環境になりましたよね。
しかし、use R 高いですね! >>388
確かに高いのでAmazonの関連書籍を探してみてもいいと思います
Packt社のRシリーズもコード付きで結構良かったと思います
日本語の書籍でも色々と出ていますね 仮想通貨botterデビューしたいんだがどこから始めればいいのやら リッチマンさんの本も買って読んだんだが初心者には厳しい >>392
あれがわからないなら基礎が抜けてるから機械学習の勉強すべき
まず学習に使うアルゴリズムである勾配ブースティングを理解する(ぶっちゃけこれ以外は捨てて良い)
次に予測に使うための特徴量エンジニアリングの勉強
この2つをやればまずは基礎はクリアできるし
実際あの本でやってるのもこの2つを雑に説明しいるだけ
本質的な部分は全部隠されてるから自分でやるしかない >>394
ないっす
とりあえずlightgbmを理解しな?
あの本でも使われてる
ほぼあらゆる回帰と分類はこのアルゴリズムによって精度が上がることがkaggleで実証されてる > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
クソチョンはゲリ便をじゅるじゅると
うまそうに食うw 100万クラスの物体認識てどう実装すればいいの?
mlpだけでメモリ不足になりそうなんだけど。。。 >>400
Extreme classificationという研究分野があるけど、非実用的。
哺乳類>有袋類>カンガルー、的に段階的に認識する。 >>401
>>402
ありがとう!
調べてみるよ >>400
学習データは何件くらいあるの?
100万クラスでゼロから学習だと、億単位が必要になりそう。 >>404
1クラスほぼ1枚、運が良くて2、3枚て感じ
転移学習でやるか、siftを使うしかないかと思ってた 普通の十数クラスでも数枚じゃろくな結果にならないのに
100万クラスで数枚だと絶望だよ 百万クラスが互いに余程かけ離れた特徴量を持ってる対象とかですかね。
クラスタリングとかならわかりますけども、分類だと分岐の調整がほぼ働きませんし訓練データに対してさえ精度でなさそうですね。 今は1級を除いてCBT試験(オンライン試験)しかないから浮くとか浮かないとかないぞ。 中学数学からやり直さなきゃいけないレベルだったorz
とりま統計学が最強の学問である(数学編)を参考に最短ルートを行く 混乱してるんだけど
↓の理解で良いの?
表現学習
└距離学習
└対照学習 日本語に訳してるのが混乱の元のような気がしてならない contrastive lossによるmetric learningと
contrastive learningて微妙に違うの?コンテキストが違う感じ? メトリックで探索する用途じゃなくてpre-trainのためのcontrastive learningというのはある。 サポートベクター回帰とカーネル回帰って同じですか? 企画職で、プログラミングできないなりに勉強してて、何かしら予測するところまではできるようになった。
ただ精度を検証したり精度上げたりってとこがうまく出来ないから、仕事で使うには難しいね。 >>421
精度上げるならドメイン知識豊富な企画職の方が有利かもしれない。
予測に寄与しそうな特徴量を考えるのが大切だから。 ランダムにサンプルを分けるんじゃなくて、あらかじめ決められた膨大なサンプルでバギングってできますか? >>422
確かに。よそのチームに掛け合ってデータとってくるとか、そういうのは得意かな!
ただ、それで精度上がったとかよくわかんなくて悩む。予測の出し方とか解説してる記事とかはよく見るけど、どうやってそれを継続的に運用発展させるのかわかる本が欲しいよね ランダムフォレストが特徴量を選択する性質がありますね。
ただそれを頼ってなんでも放り込んでしまうと学習コストが跳ね上がるので、結局は設計者が選別したものを使うのですが。
他にアルゴリズム自体が特徴量を選択する手法ってありますかね? >>424
表形式データならXGBoostに入れてハイパラ調整するだけじゃないの? >>421
仕事で使う場合、MLは目的ではなくて手段だと考えないと。誰の目にも見える形で成果を出さないと評価はされない。
詳しいことは河本:データ分析・AIを実務に活かす データドリブン思考などを参照。 >>424
MLOpsっていう分野だけど正解は無いから、どこも悩んでいる 専門家じゃなくても現場レベルで機械学習適用が容易になってきてるからね
画像分類やらテーブル形式データからの予測とか、もう誰でもできるレベルだし
これからは何か他に専門を持って、その課題解決に機械学習適用するのがいいよ >>427
ありがとう、読んでみるよ!
>>429
そうだね、思ったより簡単だった。今はいろんな実務の人に実演して驚いてもらって、一緒に課題を見つける協力関係つくるのをがんばってる 「マスターアルゴリズム」って本面白いな
まだ序盤までしか読んでないけどワクワクしてくる
「われわれは仮想世界を生きている」も最高に知的好奇心くすぐられたり今年は当たり本によく当たるわ >>421
君たいな人にこそ「マスターアルゴリズム」はオススメっぽい > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
クソチョンはゲリ便をじゅるじゅると
うまそうに食うw でもさ、ぶっちゃけ機械学習の研究者やエンジニアよりデザイナーとかアーティストとかクリエイティブ系とかの方が文化的にも世界を豊かに彩って楽しくしてれるよね
人工知能は発展していけばインフラみたいになるものだし、そこからはより人間らしく創造的な活動が重要になる
結局、人にしか出来ないようなスキルの方が本質なんだと思うわ 芸術家の方がカッコいいしモテるんだよなあ
数学やプログラミング出来たって「わあすごーい」と言われるだけで、、、辛えわ どうせなら大きな経済的成功を成さないと機械学習やってる意味ねえから仮想通貨botterにでも転生しようかと思ってる 伸びてると思ったら書き込み一人だけ。しかもポエム系w アートで食ってくのと、数理的スキルで食ってくの、楽なのは圧倒的に後者
数理的スキルそれなりにあったらそこそこ割の良い仕事取れると思うけどなあ
そう思えないんだとしたら多分案件を探している市場がミスマッチなんだと思うけどな リーマン的な思考から来る小銭稼ぎならそうだろうね
そもそも今どの市場でも数理的スキル持ってたらアンマッチなんてまず起きない
ただ>>434>>435みたいなのはエンジニアでは無理だし、億単位の圧倒的な成功も余程卓越したものを持ってないと無理
俺はリーマン的成功には何の興味も無いんだよ 自分もマスターアルゴリズム買った
たしかにいい本だね
本屋で表紙見かけた時ラノベか何かかと思ってたw >>442
わいも本屋で何気に手に取ってパラパラっと見たら良本の匂いがしたから即買ったクチ
仮想通貨botで市場から資金調達しつつ、マスターアルゴリズムや真理の探究するわ マスターアルゴリズム、って学部1, 2年生には魅力的な内容かも
エッセイだし >>441
分野がアートだろうとクリエイターだろうとエンジニアだろうと億単位の圧倒的な成功なんて一握りだろ
戦略コンサルとかにでも転職したらいいんじゃね、そんなに成功にこだわるなら
アートもクリエイターもエンジニアも成功を目指して選ぶ業態というよりは、金銭より大事なものがあってどうしても金に心を売れない人種がする仕事だと思うがなあ
夢見すぎだよ エンジニアは金銭目当てだよ
特に昨今の機械学習ブーム見れば一目瞭然
少なくともアーティストやクリエイターと同列扱いなど勘違いも甚だしい、次元が違う ヒントンやルカンやベンジオがアーティストか?違うだろ anacondaってゆうほど便利じゃなくない?
モジュールのインストールが超遅かったりコンフリクト解決してくれなかったり conda install使うとはまるな
総合的に普通よりもちょい上ぐらいのイメージ >>451
ソースコードからPython実行環境を構築してみると分かる。パッケージ管理ツールの有り難さが。
文句を言う前に自分が努力してみよう。 opencvのインストール、6時間経っても終わんない😭 >>453
普段はpip使ってるけど使いたいライブラリがanacondaおすすめしてたから使ってみたらこうだよ(o´・ω・`o) anaconda は、モジュールの依存を解決してくれないの?
嘘でしょ? そんなパッケージマネージャーってある?
Ubuntu のapt, Ruby のBundler, Node.js のnpm/yarn は、依存を解決するけど anaconda今年から商用利用有料になったからminicondaに変えて取得リポジトリ変えないといけない
だったらvenvで環境切ってpipで自分で解決したほうがいい wordcloudって面白いけど
単語の重みの数値とか単語間の繋がりの数値とか順位とかを出力してくれる機能はあるのかなあ? >>459
特定ライブラリの機能じゃないから実装によるだろ 谷中瞳とか女はイージーで良いなあ
広告塔にもなるし optunaって、同じパラメータを重複して試行することあるよね?
仕様なの? 当方超絶初心者なのですが質問をお許しください。
やりたいことは、5小節分のベートーヴェンの楽譜をデータセットとして、
学習後諸パラメータからベートーヴェンの曲のある瞬間の音を推論するというもの
その際、まずは手作業で一小節づつ手作業でデータセットを作り、
また目標値を単純にある音の次の音、ということにしました。
つまり一つの音に音高・音価・音量等があるのですが、それが四声同時に鳴るので、
3×4×(記録する音との数)という3次元配列なのですが、目標値もまた3次元配列です。
このとき、from chainer import Sequentialして
入力変数を12、出力変数と12として、
目的関数を適切に選べばやりたいことができるでしょうか(最終的にはライブで、自分の演奏を一定期間学習させてリアルタイムに学習済みモデルを作り、こちらの入力に対し推論値をOSCで演奏システムの方に送ってパラメータを設定させる、ということを考えています)
またその際の目的関数として何が適切なのかも教えて頂けると幸いです。 家庭用PCで学習できるオススメのレコメンドシステム教えて下さい >>465
ご紹介ありがとうございます、リンク先凄いですね・・・
ただ今回は、オーディオを扱うのでなく、あくまで自作ソフトウェアシンセの
各パラメータを学習させて、それを自動演奏させるのが目的なので、
MIDI信号つまり小数の配列で十分なのです。
そこで方策として、
まず教師用データとして、一定時間自分の演奏を記録(各パラメータをPythonに送りそれぞれ一次元配列に格納しておく)
入力用データとして、そのあと同じ時間(つまり同じ長さ分の配列)自分の演奏を記録して、それを入力用データとする
アウトプットをソフトウェアシンセに送り返して、パラメータとして設定
という大まかなものが出来ました。
ところで本当によくわかってないので初歩的な質問を失礼しますが、目標値やラベルが必要だと思うのですが、ここでそれに当たるものは何なのでしょうか・・?
自分のシンセのパラメータは20個くらいを考えています。それらを20個の配列に記録したとして、これを教師用データとしたとして、ある入力(20個のパラメータ)に対してその予測として20個のパラメータを推論してくれれば嬉しいのですが・・・
普通だったら複数のパラメータから、一つの別のパラメータを予測するものですよね。
考え方が混乱しているので、ご指南いただけますと幸いです。 時系列かなと思ったけど
あんまり履歴情報は使わないの? 時系列、ということは例えば、データセットとして演奏データを送ったとして、
データ送信終了するときの一番最新のものを、目標値として使う、などということでしょうか。 クロスエントロピー誤差の偏微分って出力変数の合計が1になるって制約は考えなくていいのはナゼ(・・?
出力変数がz1とz2の2つならz1について偏微分するときはz2=1-z1としなくていい? 偏微分する変数はソフトマックスの前だから合計1の制約はない 新しく出たCLRS著『Introduction to Algorithms 4th Edition』
ですが、機械学習についての章が追加されましたね。 >>474
いらねーと思ったけどよく考えたらあらゆるジャンルのアルゴリズム扱ってたし
入れてもいいか 機械学習アルゴリズムは四則演算並みに常識化するのかも >>476
アルゴリズムは知らなくても使えますし常識化はしないんじゃないですかね。
仕組みは分からないがツール経由で使い方を知っていると言うところに落ち着くのではないかと。 セマンティックセグメンテーションを試そうとcolaboratoryでやろうとして
yolactは本家のデータセットが入ってないから止めた
そもそもyolactではPyTorchは1.4以上お薦めなのにPyTorch本家の指示に従うと1.1になってしまう
それでsemamtic segmentationという名前ので試そうとしたら今度はopenCVのバージョンを4.5でなく4.4に
する必要があった
しかも今度は教師データにアノテーションデータフォルダなしでこれも動かない
ちゃんとデータセット揃ってるのでやり直そう データセットが揃ってる資料を使ってやってみたら
何とか最後まで行き着いた
しかし
1. PyTorch公式でpipすべきバージョンを調べた後で
わざわざそれと違う1.4をインストールするとか
opencvも4.4にするとか色々変える
2. 一見丁寧に書いてある資料と思わせて
公式のipynbの資料とやっぱり違ってて
そのまま丸写しすると
validdataのフォルダが作られてなかったり穴だらけになる
等などで、
「ここは最初の資料ではこう書いてあるがこうやらないと動かないぞ!!!!!」
と#コメント文が山のようにくっ付いたcolabの資料が完成した次第
しかし、別の時間帯に試したらGPUがK80とかT4とかだったりで
GPUガチャは避けられないからなあ >>29
さてそれはどうでしょうか
実は1月〜3月ほど強度のストレス下にあり、一睡もできない日々が2ヶ月続きました(体力維持のためしっかり食べてビタミン剤で補強しても体重は15kgも減りました)が、じゃあ記憶が全然できなかったかというとそうでもなかったです…
今ではサイコパス呼ばわりされちゃっています、私は結構タフですねえ… 本当に2ヶ月(24x60=1440時間)覚醒し続けたならもう死んでる。
つまり、2ヶ月一睡もしなかったというのは妄想。そりゃ精神障害扱いされるわ。 今yandexクラウドって日本から契約できるかな? 機械学習メインでやってる人からすると、例えばGLMみたいな統計モデリングはどういう扱い?機械学習の一部? 学習データを元にモデルのパラメータを推定するんだから機械学習 > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
クソチョンはゲリ便をじゅるじゅると
うまそうに食うw 最小二乗法は機械学習ではないな
計算過程に学習が必要でないから 学習用データに応じて結果が変わるんだから最小二乗法も学習してるでしょ 〇〇はAIですかも同系統の質問だけど何でそんなことが気になるのか不思議 いや最小二乗法は解析的に解くから学習してないだろう
学習の定義とかしらんが、機械学習ではない >>497
解析的に解けるかどうかってそんなに重要か?
最小二乗法をあえて確率的勾配法で解いたら機械学習と呼べる?
データが大量でメモリに乗らない時に使う手段だが MLの定義なんて決まってないからな
入れる奴もいれば入れない奴もいるってだけ
俺は最小二乗法も入ると考えてるけど、内心では古典的なクラスタリング含めてそんなもんML扱いすんなよと思ってる こんなこと言っても線形回帰に精度で負けちゃうんだよね 回帰の勾配ブースティング木の勾配がMSEの微分で残差となるのは理解できたのですが、
分類問題の場合の各決定木の勾配って何になるのでしょうか? lecunとbengioとhintonは普通の研究者のひとつ上のレベルにいるのな
大体の技術の先駆者で驚愕
最近のlecunのインタビュー読んだけどまだアイデアがあるみたいだな
arcfaceでひーこら言ってる俺とは違いすぎて挫折感ハンパない 割と微妙かな。いうほどクリティカルな論文は出してないんじゃ。 東大がディープフェイク検出アルゴリズムを出したみたい まばたきしないとか髪ぼやけるとか、人間なら検出できるって言ってたからな
そのうちディープフェイク側が精度上がるだろ てかそうやって進歩させるのがGANのコンセプトではあるわな。 Qiita のこの記事、実にいいなぁ
機械学習でなんとかしようと安易に考えるな
https://qiita.com/nonbiri15/items/cfc6909ff71273b63f5e
ディープラーニングなら学習すればできるんでしょ、と言う奴、どっか遠くの星にでもに行ってほしい たとえば、お客さんが受け取った帳票が領収書か請求書かを自動判別したい場合、
今まで受け取った領収書と請求書の画像を学習データにしてDLに学習させて、できた簡単とか言う奴いるけど
・未知の帳票フォーマットに対して有効なのかそれ?
・受け取った帳票は全部印字・記入済なんだが、そんなんで学習していいのか?(未記入帳票は不要なの?)
そんなんには怖くってまかせられないんだが、おいらの感覚は合ってるよね たとえば文字枠のある用紙に書かれた手書き文字を OCR する場合
・手書き文字だから枠からはみ出すし、はみ出す位置もさまざまだし、
・文字枠も1桁ごとだったり3桁ごとだったり点線だったりキリがない
こういうのは対象画像をそのまま(枠付きで)DLに学習させても、読めますよなんてとても言えんと思うんだが。最近はそうでもないのか?
昔は専門家がデータ眺めてうんうん唸ってロジックを考えていたが、そういうのも大切だよねと あと、学習データで評価してお客に報告するアホ技術者?もシリウスβあたりに左遷して欲しい
スキャンしなおしたら同じ紙でも別データだよね、とかいうやつも
正読率80%はぎりぎり最低ラインで、どんな方法を使ってもこの程度はいきます
95%を超えるあたりからが勝負です。頑張りましょうね。と言いたい >>512-514
基本的に事前に確認しておく内容かと
後から言われても対処できんよ >>516
誰が何を確認するの?
学習データとして妥当なのかそれ、という話なんだが 学習データの妥当性や追加のデータが必要かどうかも普通は打ち合わせしとくよね?
最終的なアウトプットを出す為に必要なデータもエンジニアから提案あるよね? 学習データが1000万件ぐらいあれば話が変わってくるけど
現実にあるのはせいぜい1万件、ひどいと100件ぐらいで
何とかしてくれと言ってくる 無茶なこと言ってくる人多いからね
最初にはっきりさせておかないと後々面倒になるんだよ
今は周りも大分理解が進んできてるけどさ 「100件でやれ」といわれて「それじゃ少なすぎてできない」というのは簡単だけど
本当にできないとは限らないからな
そこが難しいところなんだよ
「やる気になれない」とか「俺には無理」ってだけ >>518
学習データの妥当性って基本的にベンダー側が確認するもんだよね?
お客さん的には、領収書と請求書が見分けられる提案が貰えれば、他はどうでもいい。
ベンダー側の危機感知能力に依存するんじゃないだろうか。
しくじると悲惨。しかも試験運用では完璧だったりする。 自分の研究開発テーマだったら取り組む
他部門からの依頼だと確証が持てないから断るかな 初心者の質問ですみません
学習中にバッチサイズを変更すると、lossとaccuracyが変わってしまうんですが、
バッチサイズによって収束値が変わるってことでしょうか?
それだとバッチサイズの設定が結果の精度に影響しませんか? >>524
影響するよー。だからハイパーパラメータの調整はバッチサイズも含むんだよー。ミニバッチが内部的に何やってるかはググってね。でも、ざっくり、学習パラメータ最適化時のサンプリングサイズだと思えばいいよー >>525
ありがとうございます
やっぱり影響するんですね
そうなると、モデルの作り方、パラメータの設定方法、必ず正しいというやり方がないので、
初心者にはハードルが高いですね
もうある程度適当にエイヤーでやってみるしかないですね >>526
正しいやり方はないけど、単純なアルゴリズムでベースラインモデル作って評価基準を作り、独自のモデルがそれと比較して優位かを確認しながら進めるという、方法論のテンプレはあるよー。
今ならAutoMLを使うのもいいねー。対応しているタスクならだけどねー >>527
AutoML、初めて知りました
無知でもできそうですねw
試しに入れてみました
いろいろ勉強できそうです
教えてくださりありがとうございました tpot自動すぎて怖いwww
エポック数すら指定しないし
追加学習したほうがよさそうなのにこれ以上は過学習になるんだろうか バッチはサイズだけでなくサンプルのまとめ方が重要になる場合も
たとえば数字の文字認識をする場合は1つのバッチに0-9のサンプルがバランスよく
含まれるようにした方が学習がうまく行く
逆に、0だけ、1だけとかでバッチを作ってしまうとなかなか収束しなくなる >>531
正直あんまり収束してない感じなので追加学習させたいのですが、やり方がわかりませんw >>530
確かにそういうこと起こりそうだけど、なんか指摘してる論文てあったっけ? >>533
具体的な論文は把握してないけど、時系列予測で考えると直感的な理解が得られ易いと思うよー >>533
俺も論文とかはわからないが教科書に載ってるレベルの話なような
バッチのサンプルでまとめて勾配を計算するので、サンプルのバランスが悪いと
ウエイトがあっちに行ったりこっちに行ったりしてしまうが、
バランスが良いとあるべき方向に真っ直ぐ進みやすい、ということかなと直感的には理解している ・日立、週休3日で給与維持 生産性向上へ働き方改革 時間から成果へ転換
・日立、最低勤務時間を撤廃 「週休3日」も可能に
・2022年の新入社員、79.8%がテレワーク オフィスの必要性は?
・日立、富士通、NEC…「ジョブ型雇用」を大企業が続々導入する理由
・日立やNECが導入へ 「週休3日」は人材獲得の切り札
・リクルートグループ、週休「約3日」に。4月から年間休日を145日に増加へ
・カルビー/国内社員3900人を対象に副業解禁 >>535
確率的最急降下法だから、偏った方向に突き進むのは良くないとか、そういう次元の話だと思っていた 確率的勾配降下法と最急降下法が混じってないか?
最急降下法 : 全サンプルで一度に勾配を求めてウエイトを更新
確率的勾配降下法:1サンプル毎に勾配を求めてウエイトを更新
ミニバッチ勾配降下法:ミニバッチ毎に勾配を求めてウエイトを更新
んで >>524- あたりから話してるのはミニバッチ勾配降下法についてね 駄目だよね
偏ったサンプルの気持ちいい場所に捕まってしまう 確率的勾配降下法でもミニバッチでもサンプルの与え方が偏るのはダメ
普通は学習ツールがランダムシャッフルしてくれるから気にしなくてもだいたいうまく行くが
性質の違うデータの種類がいっぱいあるような場合はランダムに任せてるとバッチ内のサンプルが
偏りやすくなる場合がある
そのため、たいていの学習プラットフォームではバッチを生成する処理を上書きするための
手段が用意されてたりする
バッチの処理順序はランダムでok ミニバッチでもバッチのデータと全データで勾配方向が違うから確率的になるけどな
バッチサイズが小さいとそのズレは比較的大きくなる でもその差を理論的だったり実験的に検証してる論文はないんじゃない? 学習に使う全データは実際に発生するデータの部分集合である事は変わらない
全データで勾配を計算したとしても母集団の情報を使っている事にはならないから確率的勾配降下とも解釈できる
あくまでも学習データに限定して最急降下というだけ
未知データに対する汎化能力で見ると最急降下になっているかは分からない それはなんかズレてるような
学習データでしか学習しない(勾配を求めて降下させることもない)んだから母集団とか持ち出さなくても
確率的と最急降下の本質的な違いは、確率的に学習することによりローカルミニマムを抜け出す
チャンスがあるかどうかなのでは
そういう意味ではミニバッチ法も確率的だというのはあってると思う サイコロふってサンプル選んでミニバッチ作ることが確率的なの? サンプルの選び方によって勾配が変わるので学習の方向はあっち行ったりこっち行ったりする
でもどちらかと言うと正しい方向に進む確率の方がちょっとだけ高い
そういう意味で確率的、なんだと思う
これはアニーリング問題と同じで、分子を最初は大きくランダムに動かして
(でもちょっとだけ正しい方向に進みやすくして)少しずつ動きを小さくしていくと
最も安定したところに収束する
分子の動き=温度で、温度を十分にゆっくり下げると最適解に到達することが証明されてる
だからDLでも学習率(温度と等価)の下げ方が重要なんだが最近は自動になって便利だね >>548
テスト用にデータを分けておいて汎化能力を評価する
過学習になっていないかを確認するため
それでもその後運用すると未学習データに対する精度が要求より低かったりする 初期の学習率てどうやって決めれば良いの? それとオプティマイザも ユニット数とかすべてひっくるめて、無限にある組み合わせの中から適当に選んで試しまくってよさげなのを決めるしかないよ
autokerasみたいなの使って半自動で探すのもいいけど、制限も多いから自力(コーディング)で探すのが楽 過学習なんて言葉いい加減禁句にしてほしい。
エラソぶったおっさんが学会でわかった口して過学習、過学習‥‥‥ブツブツ。、
(苦笑) たとえばオセロや囲碁などのボードゲームではビットボードが使われてると思うんですが、
学習をさせるときは配列にビットを展開しないといけないんでしょうか?
それともインプットをビットボードの数値にしてもうまく学習できますか?
展開するとしたら結構な計算量とメモリ消費量になると思うのですが、現実どう処理されてるんでしょうか? bit単位で扱うことはないな。画像データのほうがはるかにメモリ食う
具体的にはゲーム処理は1マス1enum(内部的には4byteかな)でやるし、学習データは1マス1floatの割り当てでやる
オセロなら8x8マスだからfloat[64] 用意して自駒あるとこ1、敵-1、何もなしzero、入力マスク用にbool[64]用意して駒おけるとこだけtrueにして
lstmも何も使わない単純なPPOに突っ込むだけで一日で勝てないとこまでいくよ 配列のほとんどの部分が0なので
疎な配列、疎行列あたりのライブラリを使って
メモリを節約する >>555
3層パーセプトロンのような、小さいニューラルネットならAdam
VGGやResNetのような、深いネットワークなら、SGDが良いとされる
学習率はとりまデフォルトで様子見 >>565
過学習って学習しているわけじゃなく、学習データを丸暗記してるのと同じだよね
それを学習といいたくないんじゃないかな 過学習と学習不足(未学習)は機械学習の基本的な考え方だねー。varianceとbiasと考えてもいいよー
ところがディープラーニングの世界では、過学習の先に突然精度が上がる現象が確認されてるよー
不思議だねー >>567
この現象、体験したことないんだけどMNISTあたりでも観測できるの? 丸暗記だって学習は学習
人間でも暗記は必要最低限だけにして知識を効率活用できる人もいれば丸暗記したことしか理解できずちょっと応用問題出されただけで理解不能に陥る人もいる Double Descentだねー
大規模言語モデルだと前提になってるよー とはいえ過学習を是とすると、それはただの全文検索なので
Double Descent, Overparameterizationは既知の概念ではない何かなんだろうねー >>568
トイプロブレムで実証したことはないけど、実務で大きめのモデルを扱っている人は、みんなそれっぽい現象を観測した経験があると思うよー
とはいえ、概念を先に知らないと偶然としか思わないんだけどねー 事例が多くなると
結局あらゆる事例が網羅されるという意味じゃね? この分野まともな理屈なんて何一つねーんだし
深く考えても無駄よ
他の工学分野とかもっと理論でガチガチに固めてるしな 弱いというか、現実のDNNの収束過程とは離れた、あまりに理論寄りすぎることばっかりやってる。 学習は教師信号との誤差とかで決まる評価関数の値を小さくする結合とかのパラメータを見つける問題に帰着するんだろうな
大まかに言えば組合せ最適化問題 問題にしてるレイヤーが違うんだろ
パラメーターだなんだってのは理論だらけだけど
そのデータからどうして予測できるんだ(どんな特徴が使われてるんだ)とか、このモデルよりもあっちのモデルのほうがうまくいく理由は?みたいなとこはこじつけだらけ 理論がないってのは言い過ぎだけど、まあまだわからんことは多いのは事実。
ある程度わかってもパラメータチューニングについては機械的に探すって話はずっと続きそうではある。 >>585
別に言い過ぎではないよ。
色々試行錯誤してデモ向けチャンピオンデータ探して
発表や論文書いてそこまで、やりっ放し。
再現性無しじゃ理論も減った暮れも ただのフィッティング技法と考えてよい
教師なし学習は逆フィッティングだが 別の手法として発表されたものが
理論的には同じことをしてるという事もある >>589
誰だって最初はにわかな存在ですし、分野としては新規参入者が多いことは喜ばしいことですよ。 >>590
集合と集合の分離する(最大限離す)境界を作成するという意味で用いた。多意はない
>>591
↓これ見たとき何か勘違いしてる輩のギャグかなと思った
https://youtu.be/-MCO1FOeaOI cnnで特徴抽出するときの中間層てどこでもいいの?
convの直後がいいの?それとも活性化通した後のがいいの? >>593
転移学習の話なら出力層の直前までを再利用することが多いよー
XAIの話ならなんとも言えないねー。ただ、あまり深い層だと(人が見て)解釈が難しいことが多いよー >>594
fc入る直前のを特徴として使ってた
他の層も特徴として一緒に使えば精度か上がるかなって思った 顔認識の肌色差別問題て、グレースケールでやれば良くない? >>596
グレースケールも次元削減の一種だねー
結局元データの特徴量が強調されるよー >>596
白人と黒人の写真グレースケールにしてみ? ゴリラと認識されてしまった黒人画像見たが・・・
あれは仕方ないね、俺らの目でもそう見えかねん
な、黄猿ども? すみません素朴な疑問ですが
>>596
学習データに偏りがあるんじゃ、と思ったんですがそんなことはない?
>>600
学習用の画像データはそのまま使うのが普通なんでしょうか? 定正準化とかしないもの?(よくしらない)
黒猫の撮影が難しいように(真っ黒い毛玉にしか見えない)
肌の色によっては識別が難しいのはしょうがないと思う
カメラ側が工夫して、そういう人でも特徴を出しやすい画像を作る方がよいのでは グレーススケール後に適当なフィルタかけてエッジ画像にしてからでも駄目?⤵ >>605
CNNはエッジ検出も行っているといえるねー
それでも誤検出するなら、データの問題を先に考えるのが今のトレンドだねー
本質的に区別ができないという可能性もあるけど、それなら人が違和感持たないので、なんか不測があるんだろうねー >>605
骨格や髪型から人種判別して差別する可能性は残る そもそも元レスの顔認識の肌色差別問題が具体的に何を指しているのか分からないですからね。 未知語しかないコーパスに対して辞書無しで単語のわかち書きをやりたいんだけど今のスタンダードな手法はなんですか?
以下見つけたものですが他にオススメあったら教えて下さい
https://github.com/shimo-lab/sembei
行列分解による単語分散表現、出現頻度が低いワードは単語として認識されないのでわかち書きはできない
https://github.com/musyoku/python-npylm
良さげだけどwindowsで環境構築できなかった >>609
目的が分かち書きだと万能な方法はないねー
何らかのタスクの前処理ならBPEやSPがいいねー モノリンガルコーパスがあるならベイズ教師無しで単語分割するやつがあったな モンテカルロ木探索をしてくれるPythonのライブラリはありますか? 自分でデータセット作るの面倒くさそうだね
適正数もわからんし
ネットなりカメラなりで揃えなきゃいけないし 画像分類でもやりたそうな感じだけど具体的需要がなさそう >>616
>>617
kerasの実用的な使用方法探してたんだけど、調べてもイマイチ
自分で思いつくものはOCRだったり時系列だったりで違うっぽい
植物分類とか車種のデータセット自分でつくるのもめんどくさいなーとなったところです 生き物好きならネタは腐るほどあるが
それでもデータセット作りは面倒 画像分類の練習したいんですが、画像のピクセル数ってデータセットで統一しないといけないんですか?
ネットで拾ってきてばらばらのときはどうすればいいですか? 昔のモデルを拾ってきて実行したらリサイズ関数が現在バージョンで無効になってて
そこだけ小改造したなあ >>622
データセットの正規化や標準化で調べるとよいかと。
基本的にはライブラリに仕組みが用意されてます。 本に書いてある通りにCartPoleやったのに全然学習してくれなくて、
コード見直したらコピペしてたところが微妙に違ってて自分が悪かったw PythonのtensorflowでResNETを書いたら、
CustomMaskWarning: Custom mask layers require a config and must override get_config. When loading, the custom mask layer must be passed to the custom_objects argument.
warnings.warn('Custom mask layers require a config and must override '
という警告が出て、うまく学習しません。
get_configとやらを書くようなのですが、どこにどのように書けばいいのでしょうか? https://jdla.connpass.com/event/249769/
なんでjdla会員と検定資格合格者だけに限定するのかわからん😡
人材を増やしたいんじゃないのか
すぐ利権化するのなこんな資格、日本限定のごく一部の組織しか重要視しないのに >>629
その極一部の組織が主催してるからでは? >>630
そういう閉じた発想を批判してる
講演の最初と最後にjdlaを紹介するだけでいいだろ
conpassのこの手のイベントは大体無料で、特別な参加資格を要さずに広く参加者を募るのに >>631
そう思うのなら開かれた組織が開催する方だけに参加すればいいと言われるだけでは? Rの年収が高いのは一部の金融が入ってるからだろと思ってたけど、
実際はpythonで利益がたっぷり取れてて給料が高い会社がプラスアルファで学術的アプローチのものもフォローしたいからRの人を採用してるんだと気づいた。
Rを使える人が結果を出すわけじゃないが、Rができれば今のところ高給に就職できるのは間違い それはどの言語にも言える話で、特定の分野の高給取りが何かの事情で特定の言語を使っているとその言語の収入平均が上がる相関があるだけで、
特定の言語ができるから給料が上がる訳じゃないんだよな。
大体高給取りは優秀だからどの言語も必要になれば使うだろうっていう。
どの分野、どの会社で働くかの方がよっぽど因子としてはでかいと思う。 統計を知らない人がR言語だけ覚えたって仕事にありつけるわけはないがな ngセンセの講義は学生じゃなくてもお金払わなくても見られるね
有名私大はお金払った人しか相手にしないということをしないで無料で講義を公開してうまくやってる
niconicoはお金払わない人冷遇してyoutubeが大繁盛 この世で最も鬱陶しいもの
業界通気取りの部外者からのアドバイス 機械学習勉強しているとよくわからない間はベイズが偉いように感じるけど
本当はベイズはたいしたことなくて,偉いのはオイラーやラグランジュ,ハミルトンだよな。 >>639
我々凡人が優劣をつけて論じる姿が滑稽なことは確かだと思いますが。 google brainとかopenaiに勤めてる日本人ているのかな これ実画像を数式で再現して、その再現された画像を使って学習するって話で合ってる?
結局数式で再現可能な画像しか学習出来ないなら実世界では使えないと思うんだけどどうなんだろう
大量の実画像データの収集が不要なAIを開発
-数式からAIが自動学習、人の判断を経た学習と同程度以上の認識精度を実現-
https://www.aist.go.jp/aist_j/press_release/pr2022/pr20220613/pr20220613.html >>642
仮に現実の空間を再現した仮想空間、メタバースみたいなのがあったとしたら
そこから2Dにした画像と、現実世界の写真と学習するAIにはどっちでもいいんじゃね?
結果的に役に立つモデルを作れるなら元データが実写かCGか絵画がとかはどうでも良いかも >>642
実世界によく見られるパターン(フラクタル)を数式で再現する訳だから使えるんだろう 本で読んだけど、われわれもラジオのようなものかもしれないって話
ラジオは自分を分解して、しゃべれる謎やボリュームやチャンネルが変わる謎を解き明かそうとするが、電波塔から電波が飛んできてることを知らないからいつまでたっても謎が謎のままだと
われわれも思考したり自由意思で何かしたりしているけど、実は全部操られてるかもねって話
そうするとわれわれの思考とPCでプログラム動かすのは大差ないということになる 思い出した
意識は傍観者である、って本
スレチすまそ 過半数の人間はルーチンワークしかしないしな
それを知能と言うのかどうかという問題はある 人間の行動のうち反射、条件反射は統計学習というよりは
if then else
過半数の人間は反射、条件反射しかしない
これは知能なのか?
学習の結果ではあるのだが jupyterで一つのセルのアウトプットで複数のfigureの出力(axesではなくて)ってできますか? AlphaZeroのプログラムを本に書いてある通りやったのにうまく動かないぞ、この本は糞だな、
って思ってたんだけど、ふとプログラムを見たときにおかしいところがあって、確認したら自分の打ち間違いだったorz kaggleのノートブックってメモリ不足でkaggleの環境じゃエラーになるやつって公開してる人います? 詳しくないけど
確かにたまにKaggle環境で実行するとタイムアウトだかで最後までいかないコードあるよね
そうなのかなと思ってる CNNで、各出力が0−255になっています
1というのが邪魔で、学習で最終的に0に収束するのですが、さっさと0にしてしまう方法はありませんか? 何が問題なのかわからんが、完全に0になると勾配も消失するので学習が進まなくなるのでは 知性=intelligenceで、AI=artificial intelligenceなののに、AIが知性を獲得したって何
感情とか意識を語るならまず感情とか意識を定義しないとダメだろ
あいまいな「動物が持ってるもの」みたいなニュアンスで語るから議論にすらならないわけで >>664
自分もその通りだと思う
まず、自分に備わっている感情や意識だと感じているものはなんなのかを定義し、
そして果たして自分以外の他人は感情や意識を持っているのかという疑問に答えなければAIが感情や意識を持っているかどうかなんて議論できないよね。
素朴に「自分も他人も意識を持っているに違いない」から出発してしまう人が多いように思う。 相手が人工無能でも気付かずにチャットし続ける人は一定数居るからな 反応をみて人間が知性を感じるかどうかじゃね
多くの人が試すと知性を感じるか感じないか分かれるだろうから70%超えたらとか閾値が必要になるんだろうけど >>672
個人的にはそんなザルなやり方だとまずいと思うな。人権を与えるかなどに関わってきて、人工知能研究するのに倫理委員会通さなきゃいけなくなるよ。
意識のハードプロブレム、この界隈だと皆知ってると思ったけどそうでもないのかな?
中国人の部屋とか、哲学的ゾンビとか、一元論二元論とか >>673
人間がやる事でも倫理委員会通さないとダメな事はある
ヒトのクローン作るとか 知的かどうかは結果で判断するんじゃね?
人間の脳のプロセスはまだ分かってないんだし
プロセスで考えるのなら人間の考えることでも知的とは言えなくなる まずは知性があるかを判定するAIを作る必要があるなw そもそも知性があろうとなかろうと役に立つならどうでもいい 知性や意識や感情が存在したとして、なんで権利を与える必要が出てくるのか論理が飛躍し過ぎる白人 犬やイルカやチンパンジーに人権は与えないでしょう。 >>679
じゃあ、AIが本当に痛みを感じていたとして、生存形態の違いが歴然だからと差別してなかったことにしていいのか?人種差別の再来だろ。
>>680
最近はそうでもないだろ
逆に、意識、人権判定システムが出来たとして人間だと思ってた自分がその判定に通らず人権を与えられなかったらどうするんだ?
ナイーブな発想の奴が多すぎる。 >>674
当たり前だろ。
>>675
だったら馬鹿な奴には人権与えなくていいってことになるな。 >>681
人権は知性や意識の有無で定まるものではないですよ。それを言っているのが動物の例です。
なにより現代社会ならば人工の知性には倫理で対処するのが自然でしょう。
動物に対する危害や実験を禁止している現状を考えれば簡単に理解できるかと。
知性ある存在として扱うにしても、それは法人のような法的な人格で対処できるわけで、人権を与えて人間と混同する意味はありませんね。 >>681
AIに「生存」てなに
お前みたいな感情論でしか語れない奴が出てくるから、生命、意識、感情、それらを定義してからじゃないと話にならないんだよな
AIを人間ぽい反応するように作ったとして、それを「人種」の1つに混同してしまう脳はどういう深層学習してきたんだよ
人間とそれ以外すら区別付けられない天然無能じゃないか 黒人奴隷を正当化するための詭弁と同じようなふいんきを感じるのはなんなんだろうかこれ それマジで言ってる?
黒人は人間が作ったんじゃなく元からそこにいた生物で他の色の人種と交わって子を為せる「人種」の1つで、
AIは人間が作ったデジタルデータプログラムに過ぎないのに、それを同種に考えるってちょっと頭おかしいと思わないの?
これ、AIは人間だ!って言い出す人間が増える前にきちんと定義して法整備しないとおかし世の中になるな
シーシェパードとかグリーンピースみたいなやつのAI保護活動家版がAI会社にテロ仕掛けたりするようになるぞ まさかAIが人間っぽい話し方を出来るようになった程度で、「人間」の定義すら揺らぐとは思わなかったわ 機械学習や人工知能の理論を少しでも勉強した人ならこの程度の単純なプログラムを人間扱いするとか人権を与えるとか馬鹿馬鹿し過ぎるとすぐに分かるはずだけど PytorchやTensorFlowはお母ちゃんかな >>682
人権は人間が産まれながらに持っている権利
知性がどうとかは関係なくて
人間であれば誰でも持っている権利のこと
不適切な知識、判断をする人間は知的なのか 私たちが日常美味しくいただいてる牛、豚、鶏などにその類の権利があるだろうか?
人間だけ特別という考え方は傲慢なのではないだろうか?
むしろ我々人類は生物界の貴族階級などではないことを肝に命ずるべきであろう。 中國人の部屋は知らんけど
韓國人ならイメージ湧くわω >>693
人権を特権か何かと勘違いしてる時点で自身の考え方の根底に傲慢な前提があるのが露呈してますよ。 結局のところ人権は人間同士で無駄に戦争起こさないために人間が作った概念であり、
AIとも無駄に戦争起こさないために似たような概念を人類は再び作ることになるだろう >>698
その意見には反対しますね
人権は、その本質は哺乳類、特に社会的哺乳類が進化の過程で徐々に主に教育を通じて獲得してきた無形文化であり、最近 300 年になってやっと明文化できるようになっただけでしょうね 文章解析・生成及び進化シミュレーションをpythonでやるのか 暫く放置してたら変なのが出てるな
>>681,692,693,698
スレ違い>>1をしっかり読め kaggle notebookってlinuxのOSコマンドで仮想的にメモリ増やせないの?
16GBじゃ足りない ゲームAIの強化学習で自己対戦してるんですが、1回のトレーニングがなかなか終わりません
さっさと回転させるには複数台マシンで対戦を並行するのが考えられますが、マシンがありません
1台のマシンで対戦を加速する方法はありませんか? >>709
どのような環境なのか全くわからないのでソフト面でのアドバイスのしようがないのではないでしょうか?
ハード面の単純な解決策としては、並列化出来るようですのでクラウドサービスのリソースを利用する方法があると思います。 multiprocessingってやつを使うと自己対戦が何倍速かになったりしないのかね
使ったことある人いない? >>707
swapやzram入れるかだけど重くなる 試しに自己対戦にmutiprocessingを使ってみたが、なぜかかえって遅くなった モンテカルロ木探索のポリシーバリューネットワークを使ってゲームAIを作った時、
勝ちが1で負けが-1とするとバリューが勝率みたいなものになりますよね
ところがただこうするだけだと、最短の勝ち筋を見逃して冗長な勝ち筋を選ぶ場合が出てきます
そこで局面評価を勝ち1負け-1だけではなく、手数で減点していくようなことを考えているのですが、
これはあくまで学習データの数値をいじるだけで、ネットワーク部分のwに加算する値はいじってはいけないのでしょうか?
それとも、ネットワーク部分もいじってバリューが勝率とは少し離れた値になるようにすべきでしょうか? アルファ碁みたいなのをやろうとしてるんだよな?
モデルの方を調整するのは難易度高そう
探索のときにプレイアウトしてるんだよね?
そんなら決着までの手数の見積もりはできることになるから、最終的に手を選ぶときに
勝率だけじゃなくて手数も加味するようにすればいいのでは なるほど、そのほうがモデルを破壊するより安全そうですね というか、考えてみれば、ランダムプレイと、詰将棋みたいな完全読みとは別物ですよね
ランダムプレイで遠回りしても勝てる手筋を選ぶのは仕方ないと
ようやくそれに気づいたので、せめて即勝ちだけは見落とさないように数行書き加えました
初心者なもんですみませんでした ない。
原理を理解してないから定期的にポエマーぽいのが現れる 『感情の定義は』と聞いてる時点で機械学習の理解度がご察し。 >>730
機械学習の動作原理を理解していれば
感情など介入の余地がないと判断されるものだという意味ですが何か?
何か問題があるならば反証を挙げてください。
また、あなたの理機械学習に対する理解度も確認したいところです。 >>731
感情の原理を解明出来ていないにも関わらず両者の関係の有無を断言しようするのは、少なくとも真っ当な科学教育を受けた人間の姿勢ではないですね。 >>732
おやおや人格否定とレッテル貼りと来ましたか。私はどのように思われても構いませんがここは感情云々を議論する場ではないことは確かかなと思います。
機械学習の話をしていただきますようお願いします おやおや~ときましたか
は余計だった。煽る意図はないのでスルーで 現段階では感情と深層学習の関連は不明だからどちらとも断定できない状況なんじゃないのかな
脳の仕組みで人間が感情と呼ぶものがあるとは思う
もしかすると脳だけではないかも知れないけどね
脳と感情は無関係? そう別スレでやってください
ここは技術を語る場です 自分から絡んでいってドヤ顔で話を広げたくせに反論できなくなったらスレ違い連呼ってダサすぎませんかね、、、? >>741
機械学習とデータマイニングの話題ではないので専用スレでもおたてください そもそも感情がなんなのかすらわかってないのにどうやって実装するんだ?
まあ汎用人工知能と言えるレベルまで知能が上がると感情も自然発生するのかもしれんけど 喜怒哀楽とかクラス判別するのを学習するのでは?
カメラ画像の表情から喜怒哀楽を分類するのは研究されてると思う
外部からの入力で分類するのは同じじゃないかな スレ違い
統計分析と関係あると思ってるのかwwww >>103
【政策解説シリーズ】松田プラン徹底解説 その7 デジタル人民元の脅威と国の守り
松田政策研究所チャンネル
時事通信
WEB3×京菓子。伝統と革新。Withコロナに向けた京都 和菓子店の新世代NFTへの挑戦!
【WEB3.0時代のSNSコミュニケーション施策】スナック『大正いやんばかん』のスタッフに紐づくスポンサーNFTを発行! 画像分類するクラスにラベル付けするのも人間
だから抽象的なものにラベル付けするのも人間で問題ない
AIには入力データが画像とかテキストとか音声とかの区別はなくて数値でしかないんだし この文章は怒っている
この文章は悲しんでいる
とかタグ付けすれば
原理的には感情の分類も出来るのでは? LaMDAが感情を持っているのかも?とかニュースになってから
人工知能について認知科学や哲学の立場から語ってみたい奴が
かなり出て来ている
だが現状のプログラム技術板で語る内容では無いよなあ
情報学
https://rio2016.5ch.net/informatics/
ここにそれっぽいスレは無いのかと思ったが
人が少な過ぎる
未来技術板は妄想混じりで書いてるのが多い
でも人工知能の社会実装も含めると5chではここが一番議論が盛ん
哲学系の板では人文系の立場から考察してるんだが
プログラミングの知識を含めた考察が少ない
ロボット技術
https://rio2016.5ch.net/robot/
ここも人は多くないなあ
ごく一部の人だけ張り切ってる 感情が何であるかは難しいので、わかりやすく創造性について考えてみます。
プログラミングの観点からの回答は単純で、ソフトウェアが創造性を持つことはあり得ない。
ソフトウェアは、加算や条件分岐のような単純な計算を繰り返すことにより構築されており、同じ入力に対していつでも同じ結果を返す。
例えばソフトウェアは予測不可能な真の乱数すら生成することができない。
では一見創造性を持つように見えるソフトウェアによる創造性はどこから来るのか?
それは、学習に用いられたデータの中、あるいはプログラマがプログラムの中にコーディングしたものであり、ソフトウェアが生み出したものではない。
そして、入力に内在する以上、その数は有限であり、ソフトウェアが創造性を持つことはない。
したがって、プログラム板で議論する限り、答えは常に決まっている。
グーグルの答えと同じです。
オカルト板で議論するのが妥当だと思います。 人間が感情を持つのだからデータに対して人間が感情のラベルを付ける事は可能
ただ人によって異なるラベルを付けることはあるけど
そのデータとラベルの対応関係を機械学習することも可能
ただそれだけのこと
感情を持つかどうかではなくデータと感情の対応関係を作るだけ
それをAIが感情を持つと解釈するかどうかは人間次第じゃないか データによると、アイスクリームを与えると子供は喜ぶ。
これを感情と呼ぶべきかどうか?
この議論はプログラム板に向いていないのでは? アイスクリームを現すビット列と子供を現すビット列を入力として、喜びを現すビット列を変えす関係を機械学習するだけ
感情と呼ぶべきかどうかの議論はまた別のはなし >>762
結局そこになるからここで話しても無駄なんよ >>763
覚える必要はないと思いますよ。
使うときは覚えていても確認のため調べますし、論文など読むときも何の式か分かれば良いので概形だけで細部まで覚えておく必要はありませんし。 >>764
対応関係を機械学習する所までは議論の対象だろう
画像から猫を出力するか喜びを出力するかの違いだけだし
シーン認識とか顔表情認識とかは研究分野として存在する >>766
それはただの認識じゃん
そんな程度の低い話じゃないんでしょ? >>767
パターン認識は技術の問題だよな
そこに感情があると解釈するのは人間
例えば相手がだれかわからずにテキストでやり取りして感情があると思うかどうかじゃないかな >>759
計算機内部の電圧とかから種を拾うと
かなり完全に近い乱数が得られるよ
馬鹿にされている
と認識して
怒った発言をするというのは
感情を持っているといえないのか?
これなら機械学習で出来そうだぞ >>769
電圧はソフトウェアで生成していない。
つまりソフトウェアは感情に関与していない。
すなわち、電圧の高低は感情と言えるか?という議論になる。 >>769
お前の計算機の電圧はランダムなのか?それ新しいなw
>計算機内部の電圧 高精度の計測器で計測すればアナログの電圧値なんて計測値の末尾は当然ランダムだろう ソフトウェアは同じ入力に対して同じ計算結果を返す。
それ以外は出来ない。
疑似乱数を製造するソフトウェアはシードという名前でエントロピーを要求するが、同じシードに対して同じ数列しか返せない。
すなわち有限種類のシードに対して有限種類の数列しか返せない。
換言すれば、この操作が完全なランダム性を獲得するには、入力となるエントロピーが予測不可能な完全なランダム性を持つ必要があり、真の乱数とソフトウェアは無関係である。
これが何を意味するかよく考えてほしい。 「【統計分析】機械学習・データマイニング」なのに誰もランダムについて統計的に議論しないのである 寸分の狂いもなく5Vジャストの電圧が生じているのか
それは凄い >>777
さては計算機がどうやって動いているかしらないなwww
>寸分の狂いもなく5Vジャストの電圧が生じているのか >>780
?
だから5Vだというなら5Vあたりを中心とした正規分布か何かに従う乱数でしょ 寸分の狂いもなく5Vジャストの電圧が生じているのか(そんなわけねーだろ、それを乱数と呼ぶんだろうが。)
という意味で書いたのに伝わらなかったようで >>780
流石にロジックICの基礎も知らずに計算機がどうやって動いているかとか批判するのは恥ずかしいぞ。
CSをまともに勉強していないのかな? neural network など、on/off を判定するものは何でもそうだけど、
しきい値があって、3つの範囲に分かれる
onの範囲、offの範囲、どちらでもない範囲 >>783
計算機の中はロジックICなのか、俺のはCPU、HDD、キャッシュ、メモリ等だが >>781
根拠は?
>だから5Vだというなら5Vあたりを中心とした正規分布か何かに従う乱数でしょ 乱数でないというなら一体何なのか言えば終わる話なのに、適当にそれっぽいこと言って煽りたいだけなんだろうな 馬鹿の為に言っておくと
>乱数でないというなら一体何なのか言えば終わる話
馬鹿だね >>785
それHDDのごく一部以外は全部ロジックICで構成されてるぞ。
自慢げに「俺の中ではCPU、HDD、キャッシュ、メモリなのだが」なんて言えないし、それらを構成するロジックICは多少の電圧変化で誤動作しない。
あと、自分は786じゃないけど、例えば5V電源の電圧を24bit精度で読み取って下8桁ぐらいは一様乱数だろうな。
乱数発生のためのシード源の収集は、電圧読み取る以外にも、割り込みタイミングを乱数値に反映させるとか色々やってるよ。
https://wiki.archlinux.jp/index.php/乱数生成
他人を煽るにはCSの基本を知らなすぎて恥ずかしいと
思わないのかね? >>790
ロジックICの中の電圧どうやって計るんだ? >>790
電圧の変動はエネルギーロス、発熱源だろ、そんなもの設計に入れる馬鹿はいない >>790
乱数を生成する話にする論理のすり替えw >>791-793
本当にICのこと何も知らないんだな。よくそんなに無知で他人を馬鹿って言えるなあ。大した自信だ。 電圧の変動はショットキー雑音になるから
真の乱数にかなり近いのでは? >>784
>どちらでもない範囲
そんなものはない、回路の状態は on か off の二通りしかない以上そうとしかいえないのでは? >>795
そういうのを乱数源にする USB デバイスはないものか? >>798
もちろんあるよ
TrueRNGでアマゾンとかでググってみて >>797
ON(High)からOFF(Low)に一瞬で切り替わるわけじゃないからね。
どうしても中間状態は発生する
闇雲に信号のクロックを上げられない理由でもある 人間の感情は、生理的欲求に根差すもので、自己の生命および遺伝子存続を最大限に実現する欲求が根底にあると思われる
知的好奇心も、生命存続の鍵となる知見に対する貪欲さといえる
機械に自身の電源の持続を最長化する本能機構を実装すれば、あるいは機械にも感情と呼べるものが生まれるかもしれない
原子力潜水艦でそれをやってしまうと、あるいは人類の強大な敵になりうるかw ゴールは見えないのでスルーで。
1個人の思想が入ってきてるし、押し付けが済むまで続くと思われ。
いわゆる宗教 liquidのeKYCはウンコだな
全然認識されない lgbってカテゴリ変数でトレーニングデータにない値がテストデータで
出てくるとpredict時にエラーになりますか?
対処としてはその値を削除するでいい? 新型M2 MacBook Air買おうかと思ってるんやがProの方がええんかな?円安辛えわ 米国年収では、AWS Solution Architect が1,400万円と、
Ruby on Rails の1,300万円を越えた。
普通の言語で、900万円
AWS Certified Machine Learning(機械学習) - Specialty も高いはず
注意。上の金額は、今の円安で、2割ぐらい高くなっていると思う 日本だと技術の高い人ってだけでは給料に大きく反映されないね 機械学習とかデータサイエンティスト流行ってるけどそれこそ自動化なりAIに任せとけやとしか思えんのだけど?(´・ω・`) >>818仰る通りです。
コンサル依頼するより自分でやったほうが効率よい つか自分でやる必要すらねえと思うわ
人間よりコンピュータの領分、そう遠くないうちにそういうツール出てくるよ >>821
どうした?データサイエンティストに彼女でも寝取られたか? AIを意識しないになったらAIが普及したんだって上司が言ってた >>823
はい?
データサイエンティストが上級職だとでも?
データサイエンティストと呼ばれる程度の実力+他の専門知識豊富な方のほうがすげぇと思いませんか? >>824
ならもう普及してるな
スマホの中はAI技術使われてるけど誰も気にしてないもんな データサイエンティストよりクリエイターの方がカッコいいし価値も高いでしょ
機械学習やらAIは所詮人間の創造性を高めるためのツールに過ぎないから、さっさとクリエイター様の生産性高めるツール作れよって話
それだけの存在、チューブ絵の具を発明して絵画を誰でもどこでも描けるようにしたのと一緒のレベル
本質は絵画を描く側なんだよ データクリエイター?www
コンピュータにでも転生すれば?wwwクリエイティビティの欠片もないクソつまんねえ世界観だろうな >>818
そういった話や、ノーコードの話はもう5,6周はしている。
うまくいかなかった理由を調べることに価値はあると思うが勝手にやってくれといった印象。 ノーコードとは
ttps://www.sbbit.jp/article/cont1/68305 購入検討中だけどm1以降のmacでdockerでjupyter環境用意するの問題ある? どうせGPUもそう遠くないうちにApple Siliconが天下取る
省電力というSDGsな切り口から Tensorflow_macosというのがあるらしい
ttps://take6shin-tech-diary.com/tensorflow_macos/ 速さの比較
ttps://blog.tensorflow.org/2020/11/accelerating-tensorflow-performance-on-mac.html 先端技術大賞 研究紹介㊤ AIの学習効率化、専門家いなくても高度化可能に 「経済産業大臣賞」受賞
https://news.yahoo.co.jp/articles/aa96b55f490a8ec600f7c1c0a0c37a82284cbd46
専門家がいなくても、てちょっとこれはふかし過ぎでは? >>846
身内で作って評価して何になるんですかね >>846
GPUへの割り振りの最適化ができるだけか
タイトル詐欺すぎる 私は一万種類の蹴りを一度だけ練習した者は怖くないが
一つの蹴りを一万回練習した者は恐ろしい もしもあの時なんて酔狂な世界は存在しない
この結果だけが現実さ 不快な環境に身を置く事こそが成長を続ける唯一の方法 文章から絵を生成
ttps://www.afpbb.com/articles/-/3415539?act=all 韓国ネイバー、新社屋まるごと実験棟 ロボでBtoB拡大へ
https://www.nikkei.com/article/DGXZQOGM260J10W2A620C2000000/
凄え、LINEも数年前に福岡自社ビル建設断念してなかったら似たような事出来ただろうにな
ソフバングループやらねえかな もう日本だからとかどうでもいい
己の能力と才覚で社会問題に対峙し勝負する者にボーダーラインなぞ無いも同然 ディープラーニングの2値分類で出力を事後確率と考えますが,確率と考えられるという根拠はあるのでしょうか?
出力が0以上1以下に収まるということは満たしていますが. 考えたくなければ別に結構ですよ
あなたの好きなように解釈してください >>866
全部解説するのはむりだけど、ヒントとしては正規分布の累積確率分布とシグモイド関数の関係あたり調べてみてくれ 20年位前から多くの金融機関は倒産確率算出にロジスティック回帰を使って来たんだが
シグモイドの結果を確率としてるケースが多く、その理由が謎だった(経験的には見事に一致)
実は正規分布の近似という意味だったのか 学習ってけっこう時間かかりますね
電力消費も200Wぐらいになってて、これを何週間も続けたらけっこうな電気代です
もしかして、ラズパイでやったら電気代安くなったりしますかね?
時間かかるけど安いんなら検討しようと思いますが、時間10倍で消費電力10分の1だと意味ないなと
実際やってる方とかいらっしゃいますか? >>872
計算にかかるエネルギーに対してそれ以外の無関係な処理にエネルギーが10倍使われてないと成り立たないので、時間と電気代が反比例することはないと思いますよ。
時間的損失を考えたらクラウドのリソースでも使って短時間で終わらせた方が良いんじゃないですかね。 反比例はしない、というのには、2つのケースがある
1つは一気にやったほうが消費電力量が少ない
もう1つは逆に細々と時間をかけたほうが消費電力量が少ない
この場合は無関係な処理が10倍もないだろうという話であれば、ラズパイのほうが無関係な処理で電気を食うということか? 頭大丈夫か?
>反比例はしない、というのには、2つのケースがある ああ、反比例の話は電気代にすり替わってるのか
もともとの反比例の話は消費電力だろ
そうすると、時間と消費電力反比例で電力量同じになるんだよ
そういう話をしてたけど、勝手に変な方向に話が行ってるのね 電力と電力量の違いが判らないやつがいるのか
他人の頭を馬鹿にする前に自分の頭を検査したほうがよさそうだな 現在GPUメモリ4GBです
とある計算でミニバッチサイズ1024までは可能で、
それ以上だとメモリが足りなくて計算に時間がかかってるとメッセージが出ます
たとえばGPUメモリ12GBのものにすれば、ミニバッチサイズ3倍にできて計算速度も約3倍になると考えていいですか?
GPUの処理能力には現在もだいぶ余裕があるようです ファイナンス機械学習マスターして最強の個人トレーダー目指すのが最終ゴールよな web3.0←老害
Web3って言うんだよ
web3.0とWeb3じゃ意味合いが大きく違って来る
由来から違うから、ちゃんと理解して使った方がいいぜ
老害なメディアや老害著者の本とかも普通に間違えとるからな
若い世代は間違えないけど ああちゃんと分かってるならええんよ
たまにマジで未だにweb3.0使ってる奴おるからな web3(笑)界隈はそんな下らない言葉遊びしかできないからいちやさ本みたいな物が出版されるんだな 否定しようが馬鹿にしようがWeb3の波は止められない
インターネット黎明期やWeb2.0やiPhoneの時と一緒で老害だけが取り残される 規格化されているわけでもないから定義も何もないのに「3.0と3は違うんだ!」とか言われても知らんがなとしか そういうレベルの話じゃねえけど馬鹿には分からんわな 規格化とか定義とかされてないと先に進めない人や話できない人みると憐れに感じる
先に進む意義は自分の信念だけで十分だろ? 単にまだまだ技術的に未成熟だから規格化されていないだけなのに何言っちゃってるんだろう?
規格化されないweb技術がどうやって世界中で使えるようになるのか教えてほしい
web3系の人はこれだから困る 本気でやってる技術面の専門家は規格化目指して進んでいるはずなのに、こういうろくに技術を理解しない素人が「規格なんて不要!とにかく今すぐweb3しないと日本ヤバい!」とか意味不明なこと言っちゃうんだよな 定義なんてどうでもいいと言いつつ3.0と3は違う!などと定義に固執するのは高度なボケと受け取ればいいの? Webの歴史とはどんなものだったのか 並行世界Web1~Web3ではない、現実世界のWeb以前~Web創世記を語ってみた
ttps://www.itmedia.co.jp/news/articles/2207/25/news187.html
単なるバズワードだってさ、流行りものw インターネット黎明期やiPhoneの時とそっくりな反応だぜ
これがWeb3は来ると確信持てる瞬間や 技術なんてグラデーションみたいに徐々に切り替わるものなのに2.0とか3とか言ってるのは本当馬鹿 通常のtensorflowモデルはfloat64を使っていて、float32にすると学習速度が上がると聞きました
やり方を調べたのですがいまいちわかりません
入力データをfloat32にすればモデルの係数なども勝手にfloat32になってくれると考えていいのでしょうか? dtypeで型指定しろってさ
ttps://www.quora.com/When-should-I-use-tf-float32-vs-tf-float64-in-TensorFlow 俺は何も指定してないがfloat32になってるな
なぜだろう 今時計算機パワーでやれよ、どうせ32bit少数で計算して何を損するか分かんないだろw NVIDIAのグラボお得意のtensorcoreは64bit未対応だったっけ(16bitだったかな) 計算速度倍になると電力消費量も倍になるからなあ
電気代請求が怖い ああ、またケチがつきそうな書き方をしてしまった
計算が終わったら次の計算どんどんやるからって意味ね
早く終わる分1件当たりの電力消費量は変わらないけどさ >>911
それって、16bitにしないと事実上使用されなくて宝の持ち腐れになるってこと? お前らの全消費電力をどうやって計算するんだよ、馬鹿かw >>915
コンセントのところにワットモニターつけてるけど ワットモニターは俺も持ってるよ。毎日何W使ってるの? >>917
俺は300W
機械学習だけで月6千円以上w 「AIか哲学者か」を見分けることは専門家でも難しいことが実験で明らかに
ttps://gigazine.net/news/20220727-distinguish-philosopher-from-ai/ 西欧人て心とか意識とか理解を高尚なものと勘違いしてる
チューリングテストが簡潔かつ明瞭な検証方法だと思う
生産性皆無な哲学者が中国語の部屋で反論してるけど、対話を通じて話が通じてるように部屋の外から判断可能なら部屋の中で何してようが部屋の向こう側は理解してるということで何ら矛盾しないだろ >>914
確か64bitでやったらエラー出た
そして16bitだと動くけど精度落ちた 人間が知的だと感じるタスクを行うために、必ずしも意識が必要ではないということがわかってきたという M2 MacBook Air最高だな
買って良かったぜ >>921
理解している、と認識・判断するのは部屋の外の人ですよ……
部屋の外の人が馬鹿だったら判断を間違えて当然でしょう? >>924
それは人間の対象が知的だと判断する能力自体が人間の知性の限界を示す好例だからですよ…… >>929-930
反論になってませんね
論点じゃない、というのならどうして論点になっていないのか
議論と関係ないというのならなぜかんけいないのか
明白にできますか? >>922
tensorcoreが使われてるかどうかってどうやってわかるの
タスクマネージャーとかで見れる? >>924
スレち>>1よめ
別スレ立ててください。 もう終わるだろ
データサイエンティストなんて一部のエリート層がいればいいだけで、後はそいつらが作ってくれたツールにユーザー層がデータ放り込んで望む解を得てビジネスに活かすだけ
エクセルの上位互換版みたいなものでofficeに絶対来るだろうしGoogleとかGAFAM勢やその他がやってくれる
今はわざわざ自分らでオフィスツールを開発しようとしてる滑稽な状況、さっさと頭切り替えてエリート層が出してくれるツールでどうビジネスに活かすかとか、クリエイティブな事するかを考えてた方がいい
AIってそんなもんよ、人間の創造性を高めてくれる補佐や
いつまでもデータ捏ねくりドカタやっててもしゃあないわ この世界は誰が創造したのか
われわれは仮想世界を生きている
マスターアルゴリズム
この3冊は割とオヌヌメ
シミュレーション仮説派やit from bitに同意してる者なら面白く読める 米国年収では、Ruby on Rails が1,300万円。
AWS Certified Solutions Architect が1,400万円。
(平均が、Node.js などの900万円)
今は円安で、2割ほど上がっているはず
たぶん、AWS のML・機械学習の資格も高いと思う。
AWS Certified Machine Learning - Specialty
大学院数学科卒なら、なお良い visual studioも文脈見て変数名とか考慮してコード補完してくれるのな、ちょっと感動した 逆にまだその程度しかしてくれないと見る事もできる
汎用AIへの道のりは果てしなく遠い、深淵なる道よ
https://i.imgur.com/9uVmMrh.jpg ハミルトニアン・モンテカルロ法で,詳細釣り合い条件が成り立つ理屈がよくわからない。
遷移確率が等しくなることとリウヴィルの定理は関係ある? データドカタよりクリエイター目指した方がええぞ
国が必死に人材育成叫んでるところに人は殺到してすぐレッドオーシャンになる
クリエイティブは文化を作り文明を発展し、人々の心を豊かにする
自分が魂かけて作った作品が後世に残り続ける可能性すらある
心が震えないか? クリエイターとアーティストとの違いとは?
日本においてクリエイターと混合される職業としてアーティストが挙げられます。この言葉の違いはクリエイターと名乗っている人であっても理解していない場合があります。では、クリエイターとアーティストの違いとはどのようなものなのでしょうか。
まず、クリエイターが「自身の持つスキルや能力を具現化し、価値として提供する人」に対して、アーティストは「自身の持つ価値観をスキルや能力で具現化する人」という定義がされます。
簡単に言えば、アーティストは表現しており、クリエイターは創造しています。
分かりやすい違いとしては、仕事の流れが大きく異なります。具体的な仕事の流れの違いを絵に関するクリエイターとアーティストとで比較していきます。
絵をクリエイトするイラストレイターの仕事の流れとしては、「クライアントからイラスト作成の依頼が来る」⇒「イラスト作成」⇒「納品して対価を貰う」となっています。
それに対して、アーティストに当たる画家の仕事の流れは、「自分が持っている価値観を絵として表現する」⇒「その絵の表現や質などに賛同した人が対価を払う」となります。 知らん
リュウビルの定理が成り立つならば時間変化に対する非可換の項(AB-BA)はゼロならばよく言われる話 なお一部の天才を除く大多数のクリエイターは長時間低賃金労働を強いられているのが現実 そらリーマンするつもりならどんな職種でも安くこき使われる罠
それが資本家とリーマンの関係なんだし
そろそろ雇われる事を前提とした思考回路を捨てるべき、もうそういう時代じゃない
舞台は整いつつあるんだ データサイエンティストって労働感強えけど、クリエイターって遊びゴコロが必要で面白いからね
もちろん生みの苦しみや表現への苦悩、天才たちに埋没する辛さとかもあるけれど、純粋に好きな事を探求し続けられる楽しさ面白さがあるよね まずは資本論だろ
統計学を学べる知能があるなら資本論は時間があれば読める
そして社会の本質が手に取るように分かるようになる
未来共産社会でこそデータサイエンスの知識は必要とされている
そろそろ準備するべきときだろう >>947
遷移確率fについてd/dt(|∂f(θ,p)/∂(θ,p)|)=0ならf(θ,p|θ',p')=f(θ',p'|θ,p)となるということ?なぜ? 一部の有名なクリエイターとか有名企業所属以外は遊び心どころかそんな余裕などなく最低賃金ギリギリかそれ以下の生活だと思うけど 自分はメーカー研究開発で業務の一部に5、6年前から機械学習使ってるけど、
本当最近は環境整って楽になってきましたね
Pytorch、TensorFlow、sklearn他のおかげで、
実験系の部署だけどエクセルレベルでみんな使ってます
自分の専門+機械学習とかじゃないとこれからきつそうだなとは感じます。 機械学習分野でクリエイターて何よ(笑)
俺が一番キライなタイプの奴らっぽい そのうち病気の診断のような専門性の高い仕事を機械がやって,デザイン性だの音楽性だのどうでもいい仕事を人間がやるようになる。 データアナリストとかいう人たちも居なくなるだろう。証券アナリストと同様な胡散臭さを感じる。 >>960
そのための保険ができるよ。
自動車保険ならぬ医療ロボット保険とか。 >>955
これからさらに簡易化が進んで事務がエクセル使う以下レベルにまでなるよ
つまり自分の専門+エクセルと言ってるようなもので、これって凄く滑稽でしょ?そう機械学習ってその程度のスキルセットになるということなんだは
人間はこれから創造性がより問われる時代に遷移していく
クリエイターエコノミーがもうすぐそこまで、、、準備はできてるか?データ事務ドカタであり続けるか? 俺は既に6~7年前からBlenderとUnityに着手し、3DCGクリエイティブのスキルセットを取得している
休日はいつも作品づくりに没頭している いやエクセル以下にはなりません
いくらライブラリが豊富でも
データの前処理と特徴量の設計とアンサンブルの組み合わせは今のところ土方がやるしかないから >>964
すまん、流石にお前の言ってることは滑稽だわw まっ今はそう思っちゃうだろうね
いつもそうだよ
インターネット然り、iPhone然り
でもね時代は進むんだ 機械学習させるための煩雑な手続きだけではなく、結果を読み解く業務をやってる気持ち悪い連中も居なくなってほしい。語尾に取ってつけたような「と思いました。」を付ける女男みたいな奴ら でもこれからの機械学習は結果を読み解く業務だけになっていくよ >>942,953
時間tを陽に含まないシステム(dH/dt=0)はエネルギーを外界から受けないため。 インターネット空間は3DCGで立体化していく
軽く想像してみ?老若男女問わずほぼ全てのスマホ持ってる人間は暇さえ有ればスマホばかり見てる、スマホでさえこれた
それが外ではメガネ型ゴーグルだったり家ではHMD型だったりするだろうけど、目の前の空間全てが3DCGで構築され彩られた空間に没入できたらスマホどころの騒ぎでは無くなる
手に持つ必要もなくソファに寛いでHMD被るだけでゲームみたいなファンタジーやリアルの壮大な景色や空想上のありえない世界観が広がってるんだ
そしてこの新たなインターネット空間を構築するのはゲームデベロッパーであり、彩り演出するのは3DCGクリエイターたちだ
ここにデータサイエンティスト()が割って入る余地などない、以前のインターネットと同じようにただここでもデータ収集して読み解くドカタをやるだけ
そんな人生楽しいと思えるか?もっと俯瞰的になり本質を見ろ
この現実はもう数年後には訪れる世界観なんだぜ こんな不便なスマホでも常時接続化された世界から離れられなくなってるのに、没入度が高いXRでメタバースが来たらその世界を構築するクリエイターは人類史上最高のスターになれる だったらそれ以前にリアル建築の世界でスター建築家がゴロゴロ出ていないとおかしいけどそんな人は歴史上数えるほどしかいないんだよな 立体化されたインターネット空間、例えばメタバースではありとあらゆるデータが蓄積される、ユーザーの視点さえも
より効率化され生産性の高いAIファーストなビジネスが加速するだろう フルダイブの世界か。俺が元気なうちに実現するかな? >>977
フルダイブだと、NPCは人工知能だね。 Hirokazu Yokohara @Yokohara_h (2022/07/30 17:51:05)
YouTubeに上げたUE5の布の動画が100万再生されてたから何処から視聴しに来てるのかアナリスティクみたら95%の人はyoutube上のオススメから飛んできてた。現代のクリエーターは第一にアルゴリズムに適合するためのコンテンツを作るという不思議な行為してるよね
https://ohayua.cyou/tweet/1553302148410413056/Yokohara_h
Hirokazu Yokohara @Yokohara_h (2022/07/30 18:01:14)
youtube,tiktok,twitter等どれでも、クリエーターは人気になる為にそれらのアルゴリズムを強く意識して日々創作してる。私たちは既にAIの奴隷なんだなとしみじみ思った
https://ohayua.cyou/tweet/1553304700866695168/Yokohara_h クリエーターって何やねん
そんなんどうでもいいから学生はしっかり勉強して社会人は言われた仕事し お前らいつもクリエイター様のお世話になっとるやろ
映画に漫画にアニメに音楽にゲーム諸々、クリエイター様が創作してくれるから文化が形成され発展していく >>986
消費者が消費してくれるから新しい創作ができるとも言えますよ。 >>973
Hが時間tを陽に含まないは∂H/∂t=0
エネルギーは外から受けないはdH/dt=0
ですよね?
∂H/∂t=0 <-> dH/dt=0 だから同じといえば同じですが。
同一H上を動く場合に,なぜ遷移確率が一致する f(θ',p'|θ,p)=f(θ,p|θ',p')のかが理解できないのです。 >>990
>>946に書いたが知らん。
数学の言葉で言えば f(θ',p'|θ,p)という関数がシンプレクテイック多様体の性質を持っていると予測される。そもそもその関数の定義が無いからなんとも言えん。
その場合はポアソンの時間発展方程式(物理でいうところの運動方程式)が勝手に成立する。
貴兄が提示されてる式⇔ f(θ',p'|θ,p)-f(θ,p|θ',p')=0なのだから定常状態ではθ',p'とθ,pは可換でないといけないと数学的には解釈される。
dHとか∂Hとか知らんわ。 このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 312日 12時間 13分 6秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。