人工知能ディープラーニング機械学習の数学 ★2
レス数が1000を超えています。これ以上書き込みはできません。
需要ありそうなので、★2を立ててみました。
タイトル長の制限のため、★2が入れられなかったので、
「ための」を削除しました。 だからさ、ディープラーニングって難しい!
なんでポピュラーになってるの?
おまいら少しは分かって使ってる? 微積、線形代数、統計、フーリエ解析、微分方程式と勉強したけど
あとは集合と位相をやればOK? 多分オーケーじゃない
それは普通に大学授業でやる程度だろう
そしたら大学生は全員専門家レベルになってるだろう >>5
お前、全く勉強してない
勉強してたらそういう書き方にならないんだ
その理由さえわからんだろFラン私文だからw マセマ の馬場先生や石村夫妻が「ディープラーニングの数学」や「ディープラーニングのためのやさしい数学入門」とか書かないかな。 >>10
NTTデータの社員は6割が私文だ
だから馬鹿ばかりなのか(笑) >>10
早稲田政経は数学必須になるらしい。慶応の経・商の社会選択は数学選択に比べ1/4ほど。 機械学習スタートアップシリーズの近刊のこれいつ出るか知ってる人いる?
機械学習のための数学入門 吉崎亮介・著 >>13
宣伝乙!
吉崎亮介って高専卒だからな。
どうせ高校数学の入門書を書き直しただけだろ。
読む意味はない!
他の大学受験用の数学参考書のほうがよほどいい。 >>13
内容が本当によければ売れるが、
悪ければいくら書いても反感買うだけ。
そんな基本的なこともわからん馬鹿なのか?
高専卒の詐欺師は一味違うね! >>14 >>15
今の大学の受験参考書に線型代数のっとらんが。
高校の履修範囲から線型代数は消えた。
高専は3年までに大学初等の線型代数を履修する。
微積も同じく。 >>16
そんなことは分かってるよ馬鹿
少しは考えろクズ
ホント吉崎というのは
相当な馬鹿だな 今時、固有値とか掃き出し法とか使う人はほとんど
いないのでは? いたとしても誤差が怖いからか
ライブラリを呼ぶだけだし。他の線形代数の出番は? >>18
まじで吉崎はレベル低いな
あまりに馬鹿すぎて、
己を天才とか思い込んでそう(笑) SVMのRBFカーネルを使用して、
訓練データでy=200,180,160,140,120,100を学習して、テストデータの結果が140と出ます。
この時に訓練データの140を150とかにした時、
テストデータの結果が150では無く、180とか120になるのは正しい挙動ですか? >>21
真のデータを編集してるなら結果が意図しないものになるのは当然では? >>21
全く正しい。
ちなみに正規化(標準化)はしてるの? おれはディープラーニングの理論を全て理解してるわけじゃない。
株価の予想に使ってるだけ。
いろいろ模索してきたけど、なんとか使い物になりそうになってきた。
でもまだまだ予測機能を強化したい!
一応、ディープラーニングのBoostingをやってみようかと計画中だけど、
計算が途方もなく時間がかかりそう。 ろくに数学も勉強してないのにプログラミングだけやろうとするやつ多いよね
無意味 その「ろくに」というのが
人によって全く違うので
そゆのは書かないほうがいいよ。
そゅこと書くやつってだいたい小学生レべル。 その「小学生レベル」というのが
人によって全く違うので
そゆのは書かないほうがいいよ。
そゅこと書くやつってだいたい(ry >>26
実際それで用が足りちゃう場面も多いんだよなぁ
例えば、職業的プログラマでも再帰関数理解してないとか
高度なことしないなら十分ってケースは普通にある >>30
そうそう。
おれ10年ほどデータ分析の仕事やってるんだけど、
相関係数をもとめたり、重回帰できるだけで
「私はデータサイエンティストです!」
と名乗ってる奴が増えてきた。
でも、それで仕事が回ってるんだから、
それでいいと思ってる。
しかたないよ。
俺だって長く数学使ってないから忘れてきたw 誰でも頭が良くなる、プログラムが書けるようになる方法が発見される 45258
https://you-can-program.hatenablog.jp チョットデキルって言っている人が実は開発者だったり。 >>23-24
ありがとうございます、学習し直すのでこうなるのですね
正規化はMin-Maxで行っています レイヤー数の数え方について質問があります。
入力層、隠れ層、出力層とありますが、
隠れ層が2の時、入力層(1)+隠れ層(2)+出力層(1)=4層で良いのでしょうか?
カウントの仕方は調べても本やブログによってバラバラなので、混乱しています。 >>36
入力層はレイヤー数に含めないからその例は三層だよ
レイヤーというからなんとなくニューロンのあるところを数えてしまいそうになるけどレイヤー数は繋がっている線の数のところが何層かを数える >>37
隠れ層(2)+出力層(1)=3層
が、正解なのですね、ありがとうございます。 >>3量子情報幾何学
アインシュタインが半生をかけて
量子力学的現象を幾何的に表現しようとしたけど
不可能だった
これを数学で証明したのがフォンノイマンで
量子力学の波の収縮は数学では表現できないが結論 >>5
汎用Aiに挑戦するなら
メタ数学が必要
それと量子力学の不確定性原理 >>19固有値
1個の素粒子は
複数の固有関数の重ね合わせで表現される
(波束)
1個の素粒子は観測前は
複数の固有関数の重ね合わせ
観測後は
複数の固有関数のなかの一つが選ばれ
その固有関数の固有値が観測される物理量になる
これは波の収縮といわれてるけど
フォンノイマンによて波の収縮は数学では説明できない事が
証明された >>16今の大学の受験参考書に線型代数のっとらんが。
>高校の履修範囲から線型代数は消えた。
量子力学の表記が種レディンがー方程式が主流になって
線形代数の表記は使わなくなった為 >>7数学知識なんて文系で十分
哲学と論理学とメタ数学が
汎用AIの開発には必要 いやだから量子力学をじかに使う人口がどれぐらいいるのかと
0ではないけど、計算で使う人でしょ?
ものすごく少ないような気がするけどな >>45
あの―、内容の詳細はわかりませんけど
もうすでにpythonで量子コンピュータとか
手軽にできるみたいなんすけど、
あれは違うものなんですか? >>46
いや、だから「じかに」使う人はものすごく少ないでしょ
という話。間接的に使っている人はもちろんたくさんいる 量子コンピューターWEBサービスとかあったな
使える人は一握りだろうが SVMでgammaやCは「小さいほど良い」とはありますが、
どこまで小さくするのが理想なのでしょうか?
グリッドサーチで0.1と0.01で同じ評価結果になった時は、
0.01の方が良いのでしょうか? γ、C共に大きい程過学習しやすくなる点では小さい方が良いが評価が同じならモデル使う分にはどちらでも良い >>50
返事ありがとうございます!
評価が同じならどちらを使っても結果は同じなのはわかりますが、
あえて選択するとしたらどちらが良いのでしょう?
(実際のデータや欲しい結果にもよるのかもしれませんが) 機械学習の勉強をはじめた時、
「機械学習に線形代数はいらない。テンソルがわかればいい」
なんて言葉を鵜呑みにして、メインの参考書に分散共分散行列が登場で一度詰んだ思い出がある
そして今、カーネル化のところで苦笑いが止まらない >>51
小さい方がシンプルな関数で同じ事が実現出来ている訳だからいいのでは >>52
線形代数知らずにテンソル知っても意味ない テンソルの教科書って、最初の方は線形代数が書いてあるもんじゃないの? ○ テンソルが判れば線形代数は不要
× 線形代数はいらない。テンソルがわかればいい
ってことだろ 微分幾何もファイバーバンドル使わずテンソルだったらしい >>46
あれはただのアニーニング法といってよい。最適化問題解くための一種(しかも理論的に不正あり)であり、実際には量子力学全く使用してないまがい物。 『量子コンピュータ』という名前に惑わされないように。
量子アニーニングと呼ばれる量子コンピュータに搭載されているアルゴリズムを普通のパソコンで使用しているだけ。 量子コンピュータシュミレーターと、いま話題の量子コンピュータは別物だろ
ニュースになるのはシュミレーターでなく、ほんとの量子コンピュータを作るやつだろ 3DCGのソフトウェアレンダリングとGPUレンダリングみたいなもん? >>63
アニーリングは狭義の量子コンピューてぃんぐではないけれど、理論的に不正というのは言い方に非常に語弊がある
求められた解に対して現時点では理論的保証がないけど、ある種の問題には非常に有効かもしれない 昔のシミュレーテッドアニーリング(Geman&Geman)もLine processというイジングモデルみたいのを考えていた >>69
ここでいう
断熱近似とは?(笑)
第一原理バンド計算にあるような定義とは異なるように思いましたが? 量子アニーニング法の断熱近似について、アルゴリズム作案者が都合のよい解釈のもと、勝手に断熱近似を定義されているように感じました。 >>71
自分で勉強しろよ、首の上についてるのはなんだ草 >>73
とりあえず断熱近似とやらを数式で書いてみろよ 一般的な断熱近似⇒原子は縮退しない
量子あに断熱近似⇒時間を微小区分してれば外界からのエネルギー供給による状態遷移は起こらない(×:十分起こり得る) 目的変数1個と説明変数1個で重回帰とDL(2層、ニューロン256個)でやった時、
決定係数やMSEが同じになるんだけども、
これはDLでも説明変数が1個だと線形になるってことでいいのかな? >>79
2層で出力層に活性化関数通して無いなら線形回帰と同じ >>80
活性化関数(シグモイド)は2層で通しています
出力層にも使う方法があるのですね トレーニング時のバッチ数について、質問があります。
下記URLの様に配列を指定したらその数、配列を指定しなかったら全配列数がバッチ数になると考えて良いのでしょうか?
https://qiita.com/fujin/items/73d86034632fe5181110
train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5}) プログラム板にキチガイ降臨中!botに一晩も反応する異常さ
一般人(学校恩師)に殺害予告をしているのでスレ建て通報してください。
https://mevius.5ch.net/test/read.cgi/tech/1559872586/
142 名前:a4 ◆700L1Efzuv 投稿日:2019/06/18(火) 05:29:55 ID://qVkzO
>>141
名古屋の人な 俺ね、君の問題を大橋先生と混ぜないことにする。つまりね、
片桐孝洋のことをボコろうと思う。普通に顎の骨を折る。これくらいで警察来るか?
一般市民とかさ、普通にさ、俺らの秘密なんだけどさ、日本人なんて復活ねーから。 最近、Sympy 使い始めたけど、みんなどんな計算ツールを使ってるの? >>46 そうそう、Sympy で量子プログラミングができるなんて驚いた。
SymPy で量子プログラミングを体験してみましょう
https://qiita.com/openql/items/e5b98bcd13fb4f0b6d59
「量子コンピュータが人工知能を加速する」を読んで、数式を使わずにPythonでその概要を説明してみた
https://qiita.com/onhrs/items/aa0aa181c27743956689 たぶんネタだろうけどマジレスしておくと
量子コンピュータと量子プログラミングは別物
ボウリングとボーリングくらい違う >>88 知らんがな、簡単に説明してくれると助かる。
ちな、ボウリングとボーリングは同じだろ。 勿論言いたい事はわかるが。
どっちも検索するとボーリング場が出てくるぞ。 スペルなんてどうでも良い事。 量子コンピュータの特徴を活かして高速な演算を行わせるためのプログラムを作成する手法を量子プログラミングと呼び、
従来式のコンピュータ上でもエミュレートできるけど演算の高速化などのメリットは量子コンピュータでしか享受できないので
量子コンピュータを使える環境がない人には実際のところ無意味、という認識で合ってる? >>91 そんなことはないだろう。 量子プログラミングは、量子コンピューターの動き(波動)をシミュレートしてプログラミングしてるわけだから、似たような結果を出せる。勿論スピードは遅いが。 ASICとかFPGA使わずにCUDAしてるようなもん? 従来式コンピュータで量子プログラミングを使うことで新たに実現可能になることがあるの? SLCのSSDがMLCのSSDになるくらいの性能アップ いろんな形態のプログラミングがありそうだが、むしろASIC やFPGAの中の回路まで書いて、電気顔路を動かしたのと同じ結果を得るような感じでは?
ゲートをつないだりしてるから。
非ノイマン型のプログラミングと言えるのかもしれないけど。
自分の予想では量子コンピューターが普及する前に多値メモリのコンピュータが出てくるんじゃないかな。 或いはFPGAまで踏み込むかもしれないけど。 初心者です。バカっぽい質問で恐縮ですが、深層系で新しい構成のモデル考える時って、その構成の中の各レイヤーで一体何がなされてて、だからこういう構成なんだ、ってわかって組み立てるものなの?
四苦八苦しながら調べてはいるんだけど、どうもその辺をスパッと解説したものは無いというか、経験則から探し当ててるような印象を持ってしまうのだけど、研究者とかはちゃんとセオリーわかってて目的が実現できるモデルの構成考えてるんだよね? >>99
わかってるレベルの人は5chなんて
みないから答えられる人はいないと思う。
大学にて専門の先生に聞いたほうがいい。 >>99
そういうの提案した論文読めば考えた人の気持ちがわかるよ つまり明確な根拠はなく
うまくいった事例を挙げている
基礎研究なんだよ どんな研究でも失敗事例はその研究室内か交流のある研究室間でしか共有されないものだ 論文読んでも、今回はこのようなモデルを用意した、くらいにしか書いてないことがほとんどだし、みんな先行事例を見習いながら、気分でモデル作ってるんじゃね? ほとんどの論文は既存の論文うまく行ったアーキテクチャを流用している
最近のはResNetが多い >>106
モデル選択は主観的なもの
論理的にはできないんだ
これ基本中の基本だから
覚えておくとよい 主観が入ること=不完全なもの、と考える人がなぜか一定数いるよね 当然でしょ
実績と経験則だけじゃ偶々良い結果が出ただけ可能性を否定できない。 >>111
あのさ、確率論勉強してないって
バレバレだすよ?
ま、ほとんどのデ―タサイエンティストと
名のってる人は、単にエクセル使えますとか、
そういう詐欺レべルってことは知ってるけどね
それで通用してるんだからいいと思う
中卒のバカでも仕事にありつけてメシが食える
いいことだと思える 自称AI出来ます。は、単にtensorflow使えますが多い印象
Excelが下手な分析ツールより使えることはあまり知られていない そうそう
エクセル使いこなすだけで
けっこういけるよね
ディープラーニングなにそれ知らない!
と言ってても仕事になるし
高い給料貰える!
エクセルさまさまだぜ! エクセルで回帰分析だけしてるおじさんが年収1000万以上か
バブル崩壊に備えた方がよさそう >>118みたいなこと言ってる人って「高度な知識を活用してるんだから収入が高くて当然」と思ってそう
客がやりたいことはあくまで課題の解決であり高度な知識を使った難解な理論を見せつけてほしいわけではないのだから
EXCELで解決できるならそれはそれで何の問題もない 説明や再現出来るのも大事だしな
Excelは遅いけど、数字を追いかけられるし 人工知能とexcelに何の関係あんの?
マクロもAI?
二次関数もAI? >>122
当たり前じゃん
AIは今のところ機械学習であり
機械学習の基本は統計学だから
エクセルで回帰分析したら
もうAIと言えるんだよね
AIには定義がないんだから
なんでもOKなんよ はぁー必要十分条件も理解してないガイジばっかりでうんこでますわー >>126
> エクセルの回帰分析は誤差が大きい
どのくらい誤差あんの?(鼻糞ホジホジ)
何と比べて大きいの?(鼻糞ホジホジ) >>126
ExcelでもTensorFlowでも同じ回帰分析をやらせりゃ同じ結果になるよ
誤差があったら、お前が何かを間違えている 回帰分析なんて枯れた手法なのにソフトが違うだけで結果が変わるわけないんだよな 何使おうと同じアルゴリズムなら同じような結果になる そもそも回帰分析なんてどんな直線やどんな曲線に回帰するのかすら判らんものを
たまたま誤差が少ないってだけでどれかを選んでるだけで真実を表してる裏付けはどこにもない
それを勘違いしてるから >>130 みたいな話が出て来る 回帰分析って言ってる時点で1次式なのか2次式なのかといったモデルは決まってる前提でその式の各係数を決める話をしてるのだと思ってたけど
データだけ突っ込んでモデル自体をソフトウェアが自動で決めるようなことを想定してたのか 90年代ぐらいまで、
エクセルの分散がn―1で
割ってなかったとか
おじいさん先生が言ってた
ような気がする 分布を見てみないと回帰できるのかどうかわからないからなあ 分布をみて回帰とは
何の分布がどういうふうになってたら
回帰分析できないの? >>132
そこまで話し広げて
後出しじゃんけんのような
卑怯な書き込みしてまで
マウントとりたいとは
まるでFラン馬鹿大卒か高卒の在日のような
奴だなと思った 在日とか ID:38R9RHzh は人格が破綻していて社会では使い物になりそうにないな 回帰分析の話で勝てないと見るや人格攻撃に走るの草
謙虚になろうや >>135
NumpyやPandasもデフォルトはn法で、
オプションでn-1になるぞ 分散の定義はあくまでnで割るものだからな
n-1は標本分散の場合なのである意味特例 ID変えて複数レスして、その内容が私は素人です(笑) エクセルで回帰分析しました、以上の情報がまったくない エクセルとTensorFlowの回帰分析は同じ結果になります、教科書の演習問題で違ったら問題だろ 何この必死な独り言連投
>>126が間違いを指摘されたから流したいのか? いつもクソチョンが
マウントとりにくるな
ママゴトやってても
今は稼げるから
半島へ帰れクソチョン 自分のレス>>142で一つミス
Numpyの分散デフォルト:n
Pandasの分散デフォルト:n-1
基本的に使うのがNumpyで毎回ddof=0とddof=1を付けて使い分けてたから、
デフォルト値を忘れてた >>137
渋谷でランダムに捕まえた40代男性の
乳首の色相を縦軸に、名前の画数を横軸にプロットしたものとかかな。 >>137
最小二乗法を使う回帰の場合は誤差分布が正規分布であることを前提としている >>155
最小二乗法がガウス分布前提なのは周知の事実だと思っていましたが? エクセルで解ける問題のデータ数、問題の複雑さはどうなってんの? >>156
最小二乗法自体は、誤差分布なぞ関係なく計算できる。
誤差分布がガウス分布である場合には、そのデータに最尤度法を適用した結果と最小二乗法の結果が一致する、というだけ。 Excelでも何でもいいけど、精度をわかった上でツールを選定すべきかと。 >>159
で、誤差分布が正規分布でない場合にどれくらい使い物になるの? お笑いを一席
エクセルで回帰分析したらもうAIと言えるんだよね
ExcelでもTensorFlowでも同じ回帰分析をやらせりゃ同じ結果になるよ
誤差があったら、お前が何かを間違えている >>163
だからそれが「分布次第」だっていうのが、 >>136 (≠俺) が言ってることだろ。
[[1,0.95],[1,1.05],[2,1.95],[2,2.05],[3,2.95],[3,3.05]] みたいなデータ列を考えてみ。 >>163
使いものになるかどうか
目的によって異なる
そんな基本もわかってない?
やはり在日はだめだな 同じデータを同じ式に当てはめようとするだけなのに君の頭の中にしかない目的とやらを変えるだけで最小二乗法の精度がコロコロ変わったら怖いだろ 今朝のワイドショーで中国の顔認証の紹介してた
20年くらい前の誘拐事件で行方不明になった子供の
3〜4歳頃の写真を20年歳取らせた加工というか推測画像を生成して
今年の1月から実験初めてもう9人の行方不明者が親と再会したらしい
そもそも誘拐が年間7万人とかどんな國やねんって思うが >>168が自分で「正規分布でない場合の結果は目的によって異なる」と言ってるんだけど 激レアさんを連れてきた。★2 ガリガリロボット博士 ディープラーニングって何?
たとえば、迷惑メールの判定処理を人工知能に任せる場合、
形態素に区切って、迷惑メールのみに含まれる用語、普通のメールのみ含まれる用語をリストで
作ってそれを辞書に判定をするのが機械学習でいいんだよね?
じゃあディープラーニングはこれでいうところの何に該当するの? 機械学習では迷惑メール判定に用語リストなんて作らない >>181
じゃあどうやって判定するの?特定の用語が含まれるときに点数をつけていって
一定の点数が付いた時点で迷惑か普通かのチェックをするんじゃないの?
クソ素人に分かるように説明してほしいです メールを細かく切ってベクトルにして内積を計算するとか? >>184
迷惑メールじゃないメールも用意しないと >>186
迷惑メールと迷惑じゃないメールを人間が予め判定して用意する必要があるのはディープラーニングでも同じなの? ディープラーニングが何なのか、たとえば迷惑メール判定ならどういう処理がディープラーニングなのかが知りたいです
それが分かるサイトとかあったら教えてください クソバカにも分かる優しいサイトを あらかじめ迷惑メールと分類された結果に含まれる特徴を抽出して指標とします。
>迷惑メールのみに含まれる用語、普通のメールのみ含まれる用語
を人が作ったら、変な先入観は入るし、条件分岐が複雑すぎて疲れだけなので、
良いこと無しです >>191
ありがとう。膨大なデータから何か希望のものを識別するための
特徴を抽出してフィルタリングするのは太古昔からやってたことだとおもうんだけど
ディープラーニングは何が画期的で新しいの? 識別のための特徴抽出ルール自体をを自動で作ってくれるのが機械学習 迷惑メール判定をディープラーニングで処理するということは、こういうことですか?
入力 迷惑メールと非迷惑メール2兆通のテキストデータ
処理 テキストデータの特徴抽出モデル
出力 識別ルール
ここでモデルに渡して得られた識別ルールを使って迷惑メール判定処理をしたら
それはディープラーニングを使ってるということになるんですか?
テキストデータの特徴抽出モデルの実装方法はブラックボックスで一般には分からないということですか?
テレビに映像が映る原理を知らなくてもテレビが見れるように。 他のDLは知らんけど
SPAMフィルタはベイズ推定でしょ >>194
DLはネットワークは人が設定。
重みが学習により更新される。 >>194
特徴抽出をNNモデル、特に隠れ層(中間層)と呼ばれる層の数を2以上としたものがディープ(深層)と呼ばれる。
持て囃されてるのは、計算機の能力が上がって層数増やしたら色んな所でうまくいき始めたので。 皆さんどうもありがとう。
少しずつわかってきた気がしますね ディープラーニング
色んな所でうまくいき始めたという言葉がなんか刺さりました
「これは○○です」というデータを何万何億と用意して、
学習させれば、特徴量を計算できるようになるんですね どれくらい似ているかの類似度のようなもの
これが機械学習。
コンピューターがどうやって学習するのかが不思議だったんだけど、
入力データが音声テキスト画像映像、どんなあらゆるデータにおいてもデータを分割して、
分割したデータのあらゆるの組み合わせについて見ていくことに変わりはないということなんですね
そのラベル付けされたデータだけが持つ組み合わせを探し出して、それをそのラベルが持つ特徴として記憶していくんですね
その中の学習のさせ方の1種のフレームワークみたいなものがディープラーニング。
正確にはそういう学習の仕方をしてるかもしれないし、してないかもしれない。
そしてディープラーニングは、機械学習でいうところのデータ分割をして組み合わせのパターンをそれぞれ
比較して演算して、などという指定をしないで、勝手に特徴を見出す。
自動的に特徴を見出す。これがなかなか分からなかったんだけど、ようやく少しわかった気がする。
ディープラーニングは学習という部分では機械学習と同じく特徴量を計算する点で同じなんだけど、
実装方法の視点が全く違うんですね
人があれこれ処理方法をロジックを指定して計算させるのではなく、
もうめんどくさいから人間の脳の仕組みをつくろうよと。
中身がどうなってるかは分からないけどすべての材料は揃っていてその構造も分かってるし、
それでデータを入力してみたらいい感じに結果が出るんじゃない?という考えのもとで
脳の神経細胞のネットワーク構造を表現したモデルがいろいろ出回ってるということですかね
つまり、脳の仕組みをプログラミングしてそこにデータを流してたまたまいい結果が得られてるということ、
なので結果に対してどういうプロセスを経てその結果が出てるのかは誰も分からないという状況が生まれる
つまり人工的に知能をつくったらGPU演算性能の向上で結果が出始めたのがディープラーニングと理解しました >正確にはそういう学習の仕方をしてるかもしれないし、してないかもしれない
人間はどういう仕方なんだろうね
DL以下の能力の人も多いが >つまり、脳の仕組みをプログラミングしてそこにデータを流してたまたまいい結果が得られてるということ、
いや、ここは全然間違ってる。 >人があれこれ処理方法をロジックを指定して計算させるのではなく、
人があれこれ処理方法を指定する必要があるぞ 入力されたデータに対して、学習した正解データとの統計学的な距離を出せる
任意の数字に近ければ似てる
遠ければ似てない >>199
分かった気がするって書いてけど、多分分かってないです
ちゃんと理解するなら勉強しないと ディープラーニングは、超大雑把に言うと「ディープ」に多層化したレイヤーを用いたマシンラーニングの一種。
199はマシンラーニング自体わかってるような口ぶりだが、たぶんそのいくつかのモデルを知ってるだけかな。 >>206
ディープラーニングとは「ディープ」な「ラーニング」です、くらいの事しか言ってなくて草生える 実際のところ「ディープ」には「多層の」という程度の意味しかないから仕方がない スレタイに機械学習って書いてあるのにマシンラーニングって書くのもわけわからんよなwww お前らな―んにもわかってない!
おれは本読んで勉強した
わかるぞ
だが教えてやんない! 実際多層化したニューラルネッワークだからっていう以上の意味はないよね
で、なんでそれがうまくいくのかっていうとこまでいくと難しいんだけど >>215
それは難しいというか分かってないってのが正直なところじゃないですか?
脳の神経細胞組織の仕組みをコンピューターで組んでみたら、たまたまうまくいった。
いわゆる人工的に知能を作ってみたら結果としてうまくいった。
で、ニューラル(神経)ネットワークのモデル(型)の仕組みを理解するには脳科学の知識が必要になってくる。
学習の精度は高いことは分かっているが、そこに至るプロセス、つまり、
人間は脳細胞の世界でどういうプロセスで学習して認識しているのか、までは分かってない。
それを調べるために、我々は医学や化学、生物、物理、さまざまな学問や検証を繰り返して英知を結集して挑んでいるわけだけど、
そして情報システムの観点からも、仮想的にコンピューターで構築してある程度の結果が得られるにいたってるのが
今の流行のAIであり、ディープラーニングであるということ。
そんなAIも学習を重ねていくことで、2045年、人類の知能を越えるんだよね
地球上には核兵器は15000発あってそれらが同時しようしても地球はクレーター1つで済むとされる。
そんな中で、知能は人間を越えるまであと25年。そう考えると恐ろしいなあと思いますね。
2000年問題も怖かったですが、それ以上に何が起きるか予測不可能な世界がもうすぐそこまで近づいていることはなんとなくわかります。
なのでディープラーニングとは何なのか?人間の知能はどういうプロセスで学び、区別し、思考するのか早く解明したい
わたしも微力ながらそれに貢献したいと思いますので、ディープラーニングとは何か、教えてください >いわゆる人工的に知能を作ってみたら結果としてうまくいった。
嘘はいかんよキミ >>217
なんでウソだと言い切れるの?根拠になるソースを出してよ
赤ちゃんがどうして言葉を認識して発するようになるのか、科学的にわかってないけど、
いろいろ話かけてあげることで勝手に認識してるのが現状でしょ
それと同じことが人工知能の世界でも起きているとおもってるんだけど。
じゃあ迷惑メールと非迷惑メールの違いはどういう手順で学習してるの?
機械学習では形態素にデータ分割してパターン認識で区別するけどディープラーニングの世界では
どういうプロセスでそれを学習してるのか、それはやっぱり結果論ありきの話でしょ? そんなものは世の中にはごまんとある
たとえば、セックスして子ども産んでるやん
どうやって命が宿り成長して世に出生するかその仕組みなんて誰も分かってないでしょ
でも子供の作り方は知ってる。ただそれのこと。ディープラーニングもそうじゃないの
データを沢山あつめて入力したら学ぶようになることは分かってるけど
細胞レベルでどういうプロセスで学習に至るのかは難しいのではなく分かってないんだよ
学問や実験からロジックを組んで追究しつつ、ゴール地点からも穴を掘り進めてどこかでつながれば、
道は開く、こういうことじゃないの
なので、人工的に知能を作ってみたら結果としてうまくいった、
そこに明確な根拠はまだ分かってないのが実情という認識です わたしがいろいろ調べる中でピンと来たのは、
ディープラーニングを計算機としてみては駄目というようなことを書いてあるのを見つけたときだった
プログラムだからといってプロシージャルにロジックを追究しがちだけど、
そうじゃなくて相手は生き物だと思って、脳細胞の構造をした生き物だと思うことが
ディープラーニングが何かを理解する最初のハードル。 まず落ち着いてディープラーニングで何ができるか調べてみるといいと思う その考えがピンと来るなら、続きは宗教板かムー板でやってくれ
ロジックを証明出来ない物は数学や科学では無い ディープラーニングとは
線形のいわゆる普通の回帰分析を
ちょっと複雑にして非線形にしただけのもの。
回帰分析よりだいたい10%ぐらい
性能がいいだけ。
ただ、その10%がでかいんだよな。 >>223
最終的に目指すのはそこなんだけど、初期のモノの捉え方としての思考を言ってるだけ
そんなことを言うのならロジック解明の手掛かり、取っ掛かりに最適な体系化されたソースを紹介してよ
他人に簡単に説明できないものはそれは理解してるとは言えない >>225
https://www.slideshare.net/mobile/trinmu/ss-161240890
何故「ディープ」にするといいのか、何故SGDのようなシンプルな方法でうまく学習できるのか、とか
最新の理論研究がまとまっている >>225
ベイズ推定くらいググればいくらでも出て来るだろ
Google検索も迷惑メールの推定もこれでやってる >>226
ありがとう。難しそうで理解はできないだろうけど求めている資料はこれです
>>227
それは結局データを切って出現回数の統計から推測してるに過ぎないよね
それって知能を使っていると言えるのかな
たとえば比喩にセックスを用いたコメントは迷惑コメントになるの?
そこをクリアして初めて知能による迷惑メールの評価になるとおもうんだけど
まあ、細かいことは抜きにして迷惑メールはただ自分がディープラーニングが何かを
想像するために考えやすかったから掲げただけで、迷惑メールの分類に差して意味はないです
でもまあありがとう、ベイズ推定、おもしろそうだね >>224
10%性能がいいっていってるときの評価指標は?
ものによるとは思うけどそんなもんじゃないぞ。 >>231
問題が簡単なほど差が出にくいってのはあるかもね。 >>232
人工知能学会でも性能比は
平均8%UPぐらいと発表してた。
だが分析にて8%UPというのは
時代が変わるほどすごいことらしい。
その程度か?っていうのは
本当にいろいろやったの? そもそも性能って何なんだよ
そこが明確でなければ10%とか言われても意味をなさない お前ら人工知能学会の
論文読まないのか?
8%から10%識別精度が
良いというのは、 ここの人らは
ネットでPythonの使い方ググッて
データ突っ込んで
入門書ちょっと読んで、
能書きこいてるアホばっかなんだな >>238
そんな遅れた島国のじゃなくNeurIPSやICML読めよw >>239
そういうのは作業員にやらせろ
それこそそのうちAIに奪われる職種だ 勉強したことない人が想像でコメするとすぐぼろが出て分かっちゃう このスレに勉強してる人は
いないでしょ?
先端技術あたりが地方から
連れてきた自信満々の馬鹿ども
Excelが使えると
データサイエンティスト(笑) 適当に設定して適当にデータ与えて、回して適当に結果を得る。
結果の説明を求められると、話を作り上げる。 >>249
今の人工知能ってそんな感じで、
適当にでっちあげてるものが大半と感じる。
まともな発表ってのは
画像認識と自然言語系しかないと思う。
意識がどうのこうのとかっていう
発表は全てウソくせー その点でディープラーニングはワクワクするよね
人間が何と無く感じてる「近さ」を距離学習でユークリッド空間に埋め込んで定量化したり >>259
定量化より情報をいかに数式化することが肝要。 哲学とか宗教を定量化できそうなのがDNNだよね。
外部環境に相当する情報を入れてDNN鍛えてったら宗教を信じるに相当する反応を示すようになる、、、とかね。
倫理的にできない「人(の精神)に対する実験」を仮想でシミュレートできるかもね。
単細胞生物の神経回路再現したら、外部刺激に対する動きの反応も再現したんだっけ? 何故、人は猫を猫として認識できてるか?なんて
ちょっと前まで人間の神秘みたいな課題だった
なかなか横展開して行かないけど、第4世代のAIの可能性って概念の定量化に有り 定量化の先には人類の更なる繁栄、不老不死が待ってるんですか?ワクワクしますね
とりあえず進化論の解明をまず急いでもらいたい
地球が誕生して人がどのようにして生まれたのか、
日本と言う島国はどうして島なのに3000m級の山が棘のように隆起してるのか、
わたしにはもう時間がないんだ
早く、1日でも早く解明を急いでもらいたい >>268
痴呆症の老人の会話でさえ治癒のためには必要だ。
価値0の物はない。 >>265
全人口が不老不死化すると、人口爆発で資源、食料、住むところが足りなくなるので
不老不死資格試験というのができ、それに合格する必要があります。 >>272 >>265
不老不死を通り越して人間は死ぬも生きるも自由自在にして罪人はある期間死んで貰えば良い。 今のままだと中国共産党員が真っ先に不死を達成しそう そろそろ二値のコンピュ−タから卒業してくれないかな。 電気回路的に二値で作った方が効率的だしな
電圧レベルで判定させるとコストが上がりすぎるし、精度も求められるし、
そもそも性能で二値を上回れる訳では無いし NANDフラッシュメモリには、1個のメモリセルに複数のビット(bit)を記憶する「多値記憶技術」が採用されている
IBM、「演算能力を持つメモリ」100万個を擁するコンピュータをデモ 従来の200倍高速
https://www.sbbit.jp/article/cont1/34219
IBMは相変化メモリを用いてメモリ群が演算能力を持つ非ノイマン型コンピュータのデモに成功したと発表した。
これは「Computational Memory」、演算するメモリによる新しいコンピュータの姿を切り開くものだ。
新野注:おそらく機械学習における閾値の変化のようなものと想像されます
IBMはこのマシンを従来のノイマン型コンピュータと組み合わせ、機械学習やAIの処理を高速に行うコプロセッサ的なものにすると説明しています。
-------------
最近日本で発明された原子スイッチのFPGAも多値が取れる。 それを使って非ノイマン型の人工知能向きのコンピュータを作る研究が始まっている。 これも凄そう。
2019年8月2日
【IT】東芝の「組み合わせ最適化最速アルゴリズム」、クラウドで一般公開
https://www.itmedia.co.jp/news/spv/1908/02/news104.html
東芝は、組み合わせ最適化問題を高速・大規模に解ける「シミュレーテッド分岐アルゴリズム」を実装したマシンを、クラウド上に公開した。
東芝はこのほど、組み合わせ最適化計算に特化した既存の量子コンピュータよりも高速・大規模に問題を解ける「シミュレーテッド分岐アルゴリズム」を実装したマシンをクラウド上に公開した。
Amazon Web Services上の仮想サーバ利用料金(1時間約3ドル)のみで利用できる。
シミュレーテッド分岐アルゴリズムは、組み合わせ最適化問題を表すビット配列である「イジングモデル」を解くアルゴリズムの一つ。
組み合わせ最適化計算は、交通渋滞の解消や金融ポートフォリオ最適化など、社会問題の解決やビジネスへの応用が見込める。
量子性を用いた計算や、量子計算を模した専用のデジタル回路などによる組み合わせ最適化計算の研究に、日本やカナダの企業が取り組んでいる。
そんな中、東芝が19年4月に発表した同アルゴリズムは、FPGAやGPUに実装することで既存の計算マシンより高速・大規模に組み合わせ最適化計算を行えるという。
東芝がクラウド上に公開した「シミュレーテッド分岐マシン」では、1万変数・全結合までのイジングモデルを解ける。
同社は8月1日に、シミュレーテッド分岐アルゴリズムの概要を解説する英語ページをオープンした。日本語ページも近く公開予定。
★ 日本語解説はこれがわかりやすい。
組み合わせ最適化問題を解くCMOSアニーラ(6) NECと東芝の研究開発状況
2019/06/27
https://news.mynavi.jp/article/annealing-6/
東芝は、最近提案されたKarr-nonlinear parametric oscillatorを使うモデルに基づいている。 >>289 なんで? 組合せ最適化問題ならもっとも良いのでは? 理由は3つ
・イジングモデルでの最適化解は唯一性を補償できない
・そもそも論として組み合わせ問題事態が実際の社会にあまりない
・初期配列の割り当てできる技術者がほとんどいない 最近、凄そうな見た目に引かれるだけで、それが優位に社会に貢献できるかどうかを見抜けないやつが増えて困る 素人なんだがシグモイドて2値問題だから使えるって認識でおけ? 活性関数で使うだけやろ
解きたい問題が2値問題かどうかとは何も関係ない >イジングモデルでの最適化解は唯一性を補償できない
べつに唯一性はいらんのでは? >>291
2019年9月5日
OKIとOKIデータ、製造現場の最適化実問題に量子コンピューターを適用
作業員の動線を平均28%短縮する装置配置を算出
https://www.oki.com/jp/press/2019/09/z19038.html
2019年7月30日
「量子コンピュータとは何か」を問う“新たな壁”:
「量子理論の副産物に過ぎなかった」──東芝の「量子コンピュータより速いアルゴリズム」誕生秘話
https://www.itmedia.co.jp/news/spv/1907/30/news030.html 確率に精度なんて重要ではない、AI だってそうでしょ。
確からしさがそれなりにあれば良い。 量子コンピュータωも良い具合にバズって来たなωωω >>300
精度100%が不可能な以上、AIを信じて良い場合と悪い場合を判断出来なければ医療や自動運転などのミスが許されない場面では使いにくい >>297
その記事を見た上でいったんだが。
OKIが最近の書物を理解しておらずお馬鹿な選択をしたとしか思えない。 そもそも作業員の『移動距離』というものをを28%削減して、どれだけコストカットになったのか、記載がない。
『移動距離』というものにどれだけ価値があるのか?
お金をどれだけ儲けたかその指標を上げないのは片腹痛い。
それともう一度言うが、
最近、凄そうな見た目に引かれるだけで、それが優位に社会に貢献できるかどうかを見抜けないやつが増えて困る 5ちゃんの見た目は相当ショボいが優位に社会に貢献してるよな 『AIを導入して自動化を進めコストカットしたい』という要望があったとしても、実際にはAIじゃなくても自動化は進められることが多い。
AIじゃなきゃとか、
ディープラーニングじゃなきゃとか、
D-waveじゃなきゃとか、
拘らなくても既存の技術で何とかならないかなどの検討が不十分。
そもそもの目的がコストカットなのに、ずれてるやつが多い。 >>302
医者の判断なんて誤診が起こりまくってることから明らかなように、超適当なのに
なぜAIだけ100%の精度を求めるのか どこをどう読んだらAIの精度100%を追求する話になるんだ? 人間より高精度だからAIで問題ない、とか簡単に言っちゃう技術者が多すぎてどうしたものかと思ってしまう AIの判断の間違いで大きな被害が出た時に責任の所在が分からんのが困るんだよな
だから、間違っても大した問題ないようなとこでばっかり使われてる >人間より高精度
ゲームで喩えるのは申し訳ないけど
ゲームでAIと戦うと
「なんでこんな手打つんだ?」っていう場面に遭遇するんだが
結局その手で負けるからやっぱり良い手なんだよな
人間より高性能な判断っていうのは人間に理解出来ない
ところが愚民共はそれを理解しないからAI禁止とか言い出す シンギュラリティ(意味不明)が起きたとして、人間はそれを認識出来るのかね 何でその判断をしたのか?とか
その判断が正しいのか?とかは
判らなくても
機械に負けたってことくらいはさすがに気付くんじゃね 優れた判断をするAIでも間違った判断をすることもある
アルゴリズムに問題があるかもしれないし、実装する時にバグが混入するかもしれないし、学習データがおかしいかもしれない
精度的に避けられないミスなのかもしれないし、何かしらハッキング受けてて誘導されたのかもしれない
間違えた原因が追求できないなら、なんかよく分からんけど間違えたじゃ済まない分野には投入できない 神様も人間造るときにいくつもバグ仕込んじゃってるからなぁ >>314
AIてなに?
バグてなに?
アルゴリズムてなに?
機械学習の根本的な原理を理解していれば、そんな発言にならないはずだが… >>307 >>302
自動運転車も100%の精度を求められるな。 >>312
苫米地英人氏は人間は意味不明なことは認識できないという。 AIなんてどこにも存在してない
単に機械学習が広まっただけ
と、何度言っても理解できない高卒の馬鹿がいる。 >>316
アルゴリズムてなに?てどういうこと?
機械学習のアルゴリズムいっぱいあるよね?
バグってなにって?プログラミングしたことある? 個人の顔認識では認識しやすい顔、しにくい顔があるはず
黒人がしにくいのは知られている
美人やイケメンは認識しやすいが、差別になるので公言できない >>321
そうですよね?アルゴリズムいっぱいありますよね?でも各アルゴリズムにほぼ共通といっていいぐらいの特徴がありますよね?。機械学習なんてただの関数の最適化ですよ。
関数のバグとは??
ハッキングされて関数がどういう影響をうけるわけ?? >>323
機械学習のアルゴリズムがあったら勝手にプログラムが出来上がると思ってる? >>325
はあ?なんのはなしは?はこっちのセリフだなあ
現場に投入するようなシステム作ったことある?
それ以前にプログラミングしたことある? >>302 精度100%なんて金輪際ありえないから、AI を使っても最終判断は人間の医師がすると言う法律になるんだよ。 >>317 誰も100%なんて求めていない。 死ぬ確率が減れば良いだけの話。 >>330 >>317 >>302 >>300
不老不死が実現すれば人間は死なない。 >>329
だからその最終判断を人間側がしやすいAIが必要って話やろ 判定精度において、AI判定 > 医者判定 が明白になっても、
「責任」という観念論に邪魔をされ、人類は医者の最終判定を採用し続けるであろう >>333
金持ちは医者の最終判定を使い。それ以外はAI判定を使う。
AI判定は保険が効く。人間の医者のは自費。 手術もロボット手術は保険適用。
人間の手術は自費。 後50年もしたら、予防医学が発達して病気にならなくなる >>330
だよな
人間の医師が診断して生還確率 38% で
AI なら 39% だとすると
やっぱり AI 選ぶよな患者は >>336
運動と睡眠と食事だけで予防ができるかもな。 >>339
金持ちも過度の肉食や酒タバコ止めて適度な運動をやってと十分な睡眠取らんと病気になるぞ。 >>335
AI出術を実現させるには、AIによる手術失敗も学習させないとな >>341
生活必需品は安価やただになり金を持ってることになんら価値がない世の中がくる。 >>343
それはないと思う。
日常品や食料品の価格の大部分は
輸送コストなんだ
輸送コストが発生しないようにするには
住居で生産するしかない >>343
むしろいくら金あっても買えなくなるんじゃね
千葉の停電観たいに今いくら金あっても停電治せない ディープフェイクが大きな社会問題になりそうな予感
同僚やクラスメートのアイコラ動画が拡散して逮捕者が出たりして
ウイルス作成罪と似たような扱いになるのでは ディープフェイクって希少だったAdobe職人の量産化みたいなもんで、
アプリ化されている段階なので、もう蔓延はストップできない
監視カメラやドライブレコーダーも簡単に偽造できるようになったし
デジタルフォレンジック自体を早急に見直す必要有り >>344
完全自動運転が普及すれば
みんなで車を所有して
普段は辺鄙なところに駐車しておいて
必要に応じて売り手のところに行って
自宅まで届けてもらうことが可能になるが
輸送費は0ではないが
相当に下がる / ̄ ̄\
| ・ U |
| |ι \ チンチン
/ ̄ ̄ ̄ 匚 ヽ
| ・ U \ ) ))
| |ι \ ノ
U||  ̄ ̄ ||||
【ラッキーレス】
このレスを見た人はコピペでもいいので
10分以内に1個のスレへ貼り付けてください。
そうすれば15日後好きな人から告白されるわ宝くじは当たるわ
出世しまくるわ体の悪い所全部治るわでえらい事です >>337 患者が選べるものじゃないよ。
AI 歯 は医者の補助。 まあgoogleのAI運用なんかもAI部分に人間もしくはロジック部分でフィルターかけて
とかやってるらしいからな。
そのまんま使うのは馬鹿だわ。 成功体験だけ学習させたらミスしたときリカバリーできなくて悪手打ちそう 失敗データなしの学習では推論結果は成功か成功以外かに分類される
失敗データありなら成功、既知の失敗、未知の失敗に分類できる
既知の失敗と未知の失敗では発生時のリスクが段違いなので失敗データの学習は重要 >>358
失敗データがあるときの分類がわからん
なんで未知の失敗と言えるの?未知の成功はないの? >>359
人間様が成功と認めた状態以外は成功ではないから >>360 >>359 >>358
教師なし学習はないのね。 何をどう学習させることを考えてるのか具体的じゃないからよく分からんね >>364
当たり前
教師なし学習は基本的にはクラスタリングを行うことだ
つまり成功データと失敗データが大量にあるがどれが成功でどれが失敗かはラベリングされていない場合に両者の境界線を決める問題を解くのが目的
失敗データがないのに成功との境界線を決めろと言われても困る >>366
食欲 性欲 睡眠欲か? 人類もはじめは財産欲と名誉欲はないからな。 人間の学習の用語と機械学習の用語はオーバーラップしてるけど意味が違うので
人間の学習の話を持ち出すと話がごちゃごちゃになるからここではおすすめしない 世界最初のコンピュータとか
世界最初のCPUとか
ノーベル賞もらってないの?
世界発の真のAIももしできたらノーベル賞もらえる? >>374
世界最初のコンピュータも世界最初のマイクロプロセッサもノーベル賞はもらってないね
最初期のコンピュータは軍事と深くかかわってて当時は軍事機密のベールの向うにあった部分も大きいし
それにどのマシンが「最初の」かに関しては今に至るまで論争が続いており皆が納得する結論は出ていないし
ついでに言えば世界最初のマイクロプロセッサ(君の言う「CPU」はこの意味だろう)に関しては
ずっと長い間(そしてほとんどの人々にとっては現在でも)、日本の電卓メーカであるビジコンの要請で
同社の嶋正利と当時は出来立てほやほやのベンチャーだったインテルの技術陣とが作り上げた4004プロセッサということになっているが
実は、アメリカ海軍のF-14Aトムキャット戦闘機のエア・データ・コンピュータのために世界最初のマイクロプロセッサMP944が開発製造され
使用されていたことが随分と後になって(確かF-14全機が退役した今世紀あるいは少なくとも20世紀末になってから)漸く機密解除で公表された
それで君の言う「真のAI」という言葉の客観的で曖昧さのない明確な定義は?
そして、真のAIと真ではないAIとの違いとは何なのか? >>374
真のAIとやらは意味不明だが、ディープラーニングの性能を世に知らしめた、ヒントンとヨシュアとルカンはチューリング賞を受賞した チューリング賞の知名度はイグノーベル賞に負けてると思うわりとまじで 白人は何にでも賞を作るのが好きだしな
オカマのアダルト世界最優秀賞とかAIもそんなカテゴリの一つかと チューリング賞、取ってる人たちは相当有名なのに賞自体はだいぶマイナーだな。。 >>378
イグノーベル賞に知名度で勝てる賞ってどんだけあるよ AIエンジニアって、企業であまり活用されてないような気がする。
Yahooとか「若手のホープが独自のアルゴリズム(数式)を開発しました。」
ドヤってるけど、
やっていることは記事のカテゴライズや
時系列で表示していたコメントをわけの解らん機械学習順にしているだけ Yahooのエンジニアって
Pythonのライブラリに突っ込むだけ
のような気がする yahooはけっこう自前だったりはする。
だが下手に自前の糞ライブラリ作るなと言いたいとこだよ。。 それなりに普及している既存のライブラリで対応できるのにわざわざ独自ライブラリ作るのは勉強目的でなければ時間と労力の無駄でしかない 公開しても大きなメリットがあり、自慢できるものであれば文句はないけど、実際は…わらわら yahooの研究とか開発って
民族縛りあるからな。
キムチ臭くないと
採用されない
人的バイアス強烈! 株価が上がるネタであればよい、技術なんか興味が無いチョン ちょっと前まではDLライブラリが乱立していたのに、今はTensorFlowに集約しつつあるしな
まーYahooは公開そのものが遅れて、とりあえず自前で使ってみましたってだけじゃね? pythonついでに機械学習とやら勉強しようと思うんだけど、やっぱ難しいの?
python習得は問題視してない
一応工学系で三次元のベクトル、行列のプログラムは普通にできる、微積も人並みには分かる
統計とか確率はなんかハッキリしないから避けてきた
難しいけ? >>391
統計の基本を勉強すれば大丈夫だろ、所詮ライブらリィの使い方 今、キャリーオーバーで30億になってるロト7って
全数字の出現率が等倍のサイコロゲームでしか無いんだろうけど、
直近で、9と10の連番が、2回続けて出ていて、法則性があるような錯覚を受ける
情報商材屋が儲かってそ ああ、ロトね
宝くじの弓矢も制御されてて
番号は最初から決まってるわけ。
当たるのは勿論利権持ってるあいつら。 > さらに、「巡回セールスマン問題が解けない」と、湊さんは量子アニーラの問題点を明かす。
まあ、こうなることは知ってたけど… ディープラーニング、数学科レベルに数学出来ないとダメって本当? >>405
用途による
画像分類なら一切不要でコピペでオケ
モデル設計からやるなら高校の数Bや数3 >>408 >>405
現在線形代数は高校でやらないからな。
大学一年の数学は必要。微積は高校レベルでもいいが。 まあ線形代数は機械学習関係なく勉強したらいいさ。
てか機械学習よりもよっぽどつぶしが効くぞ。 >>409
まじですか?!
微分方程式もやらないというし、数学に関してはゆとり教育が延長しているのでしょうか? 数学出来ないとダメってレベルだと数学できても意味ないよ
モデルの数式見れてもそれだけじゃ意味ないもん >>411
高校の先生が線形代数を教えるのが困難だからというのが理由らしいが。 >>412
モデルの数式が読めても意味がないがモデルの数式すら読めないのは論外なので数学できなきゃ駄目 もう、理系の大学生が3割まで低下しているらしいから、高等数学を削るのは妥当
しかし、日本ヤバくないか?
http://tmaita77.blogspot.com/2014/03/blog-post_14.html
男女ともに最下位 工業高校だとΣも教えてもらった記憶が無い
まぁプログラム作ってたら自然と覚えるけども >>416
中学社会で習ったろ
国の産業構造は途上国から先進国になるにしたがって、生産業からサービス業へと変遷していくんだよ。言い換えると理系分野の割合が減る >>416
それ 2014 のデータだからな
今はもっと酷い
大学受験も変更されて今後さらに酷さは加速
前川助平のせいだ >>414
線形代数は色々応用が分かると面白いけど、授業だとつまらないことが多い 線形代数は力学、電磁気学、熱力学などで三次元の状態を
記述するのには便利。相対論でテンソルを書く時にも便利。
普通の人はそこまで使わないけど。普通の人は二次方程式
や連立方程式を解くことさえまれだろうな。 そろそろ揺り戻しは来ると思うけどな
やっぱり数学は必要だわってなる 今の受験数学より、大学数学教える方がよほどいいと思う そらそうだけど、授業時限数には限りがあるからどこかで妥協しなきゃいけないから仕方がない
インドは日本の大学でいうと理学部数学科3年ぐらいまでの数学を理系だと高校まででやっていた気がするけど、
そこまで専科的にならなくてもいいから理学部、工学部、経済学部で必要な数学の概論を高校までで教えるのが受験数学を極めるよりかは良いとは思う YouTubeの動画 ヨビノリの解析と線形代数は大学数学入門だな。
akitoの微積分と線形代数はやや冗長。 >>424
んなこたあない
インドの大学受験数学の講義は
youtubeにあるから見てみ
日本の高校生と同じぐらいだよ >>424
>理学部数学科3年ぐらいまでの数学
具体的に インド共産党毛沢東主義派だからあながち間違いではない >>422
大学生を対象にした求人は理系が巻き返して5割超えてるのに、文系大学生が圧倒的に多いし、
授業料が安い国立や県立より、
数学や物理が必須科目では無い私立に行くし、色々、歪んでる >>430 大学生なのに分数計算すらできないのが多いらしいからな。
嘆かわしい。 理系だって論文を書けるだけの国語力と英語力が必要だし、
文系だってそれなりの数学力は必要なはずなんだがな サービス業は自動化やロボットの導入で人員減るから、農業でもやればいいんじゃね >>433
社会に出ると、理系職の方が英語を使う機会が多いし >>432
早慶でも英国社ができれば分数計算できなくても合格する。 これからの文系の人間は仕事してるふりをし続けないといけないのか 無能は金だすから仕事しないで遊んでてほしいわ。。じゃま。 >>441
昔からそうだし今後もそうだろう
やらなくてもいい仕事ばかりやっている >>441
文系は屁理屈や言葉遊びでお金を貰うお仕事だろ データ分析で管理職になったら
まじでやることなくて
居眠りしてしまう。
最近は職場でずっと寝てしまう 文系のいない世の中になったら、逆に希少性があがるかも 今は運転手とか土方とか作業員が足りないから、ガテン系の給料がすごく高い。
林業なんて年収2000万とか普通なので
稼ぎたいなら林業とかいわれてる。
SEやデータサイエンティストは、
誰もがやりたがるカッコイイ仕事だから
どんどん単価が下がってる。
実は馬鹿でもできるしね。
文系はガテン系の仕事やってもらって
稼いでもらって、
理系は安い給料でIT系やるといい。 >>448
データサイエンティストはバブルだけど、SEは今も負け犬ご用達の職業
AIとシステムは両輪関係だから、SEも人気になってくれないと困る >>448
>林業なんて年収2000万とか普通なので
若い時から森林作業員で働いて、無事にマネジメントできる立場までなれたとしても
大半は年収400万円台までにしかならないなあw
若い時なんて月収額面20万未満が普通
手取りは10万円程度にしかならない所も多い
2000万円儲かっているのは、森林地主だけだよ
WW2後の占領軍は、農業小作人は解放したが森林地主はそのままにしたからな
しかも国の補助金塗れの産業だ
人工知能のスレに書き込むなら
伐倒造材機、造材機、積載式集材車輌、タワーヤーダなどを
その作業込みで完全無人化する技術でも考察すべきなのかなあw
これが出来たら林業はその所有者に限りボロ儲けする産業になるが
その前に拡大造林で有り余ってボサボサに伸びた枝打ちも間伐もしてない森を
整備する方が先だ >>453
ベンチャーになるかどうかは分かりませんが株でちょっとネタがあるので私が実践して儲かるようだったら bitcoin で集金するサイトを立ち上げるつもりです
やりたいことがあると、いろいろはかどるものですね
ネタをお漏らししちゃうと「米国株さや取り投資」 >>454
レスありがとうございます。株関係でしたか。
自分もそうなのですが、人工知能関係のベンチャー企業って
沢山あるのでどのあたりで差別化が図られたりしているのか
いろいろ調べている最中です。 >>454はマルチポストだろうけど、
AIベンチャーの振りをして既存のSIビジネスの延長しかやっていない企業より
株や競馬の予測を会社単位でやってる企業の方がまだましだな 3Dの耳と立体360度カメラを持つ人工知能、
いる場所で勝手に自動学習し、いつもと違ったことやミスがあると指摘する
そういう賢者AIはどうだろう まあ、普通にデ〇ソーに就職できれば給料もいいんじゃね。
下手なベンチャーより。 ディープラーニングが一巡したら
また数学が必要になるよ 数学がいらないって言う奴は、分類と回帰の区別がついて無さそう >>458
特定領域の技術に強い関心があってそれで飯食いたい人が大企業に入るなんて運ゲーでしかない
どこに配属されるか入社して研修終わるまで確定しないのだから 数学っていうか、まず分布を見ないとどの方法論を使うべきなのか
決まらないと思うが。一種の統計学。片っ端から方法論を試しても
時間の無駄。 深層学習でニューロンの数を幾つにすればいいか
何層にするかそれぞれでどの関数使うか分かってないようでもいかんからなあ 会社の機材とかあてにできない人はビデオカード何でやってます?
予算的に2070Superで行こうかと思ったけど、中古の1080tiの方が良い気もしてきて ディープラーニングに関わる数学を勉強してみたい
まずは統計学から始めればよいかな?
大学時は理学部数学科で解析専攻だったから初歩的な線形代数はできる微積分も一般的な国立学部卒並みの知識はある >>471
「パターン認識と機械学習」から始めたらいいと思う >>473
ググったけどなかなか歯応えがありそうな本だね
別の話題になりますがディープラーニングG検定等はここの人は持ってる?
せっかく勉強するなら資格とか目にわかるような形で残したいと思うのだけどどうだろうか ヨロで行くか
ストレージじゃない方のSSDで行くか DMMにそんなAPIあったのか
知らんかった
すげー >>463
そんなたいそうなことしてないだろ。
カラムとレコードの数だけみて決めてるだけ。 >>480
方法論の数はものすごくたくさんあるから
分布を見てから有効そうなものから試していくと
効率的にできるんだけどな 言うほど種類はない。
ランダムツリー系、回帰、ノンパラ(カーネル法)
くらい。
それ以上細かくやるやつはただの時間稼ぎするだけの馬鹿。
そんなことするくらいならデータ整備のが結果がでるけど
めんどくさがってやらない言い訳かんがえてるだけなんだよな。。 >>482
> ランダムツリー系、回帰、ノンパラ(カーネル法)
粒度バラバラやんけ
動物は言うほど種類はない。
犬、哺乳類、恒温動物
って言うくらい意味ないぞ デ○ソーレベルに中途で入社できる奴なんてクソ大学の准教授
に応募しても採用されるんじゃね?もちろんデーターサイエンティストとかで。
あと、取り敢えず株ならエクセルで頑張ってみたらどうだろう? 実務経験1年以上でもいいのか、そんなのならベンチャーで頑張って
きた実力者なら引く手あまたなのかもな。 >>483
いやまずそこで分類するだろ。
いちゃもんつけるなら他にいい分類があるだろうからあげてみれば? お前らって実務でもデータサイエンス扱ってる?
完全に趣味で勉強してるが実務で使えてる奴羨ましいわ >>486
分類、回帰、次元削減、クラスタリングとかやろ
何故にモデルとタスクと計算テクニックが混同されて同列に並んでるかがわからん >分類、回帰、次元削減、クラスタリングとかやろ
全く実際の作業を意識してないだろ。
ここになぜか次元削減を持ってくるとか何もわかってないな。
それは前処理に組み込むかどうかで全く別軸。
なぜか分類とクラスタリングみたいに教師有無が混じってるし、
そんなんところで実際に迷うなんてことはない。 出たよ実務マウント
それあなたがしてる作業の話でしょ?
先ず解きたいタスクを決定して、その後に使うモデル決めるのが普通でしょ?
いきなりランダムツリーで行くかどうかから考えんの?
ランダムツリーを利用する回帰も存在するがそれらが別なのも不明 490が何言いたいのか分からん
方法論の種類の話じゃなかったのか? デンソーは忙しいぞ?
アイシンのほうがノンビリで
オススメ デンソーの売上知らず?
とはいえ及川さん技術顧問になったけど何も変わったように見えんな
こういう会社がまともにデータサイエンス導入したらめちゃくちゃ強いんだけど本当に残念だ デンソーは体育会系なので
優秀な人は集まらない。
デンソーの製品を海外メーカーと
比べてみなさい。
ボルボなどのったらデンソーが
いかにレベル低いかわかるから。 >>491
いやだからそこで迷うことなんてないって言ってんじゃん。。
実際に仕事で使ったことないならそういえばいいのに。 何言ってるか分かんないけど、もしかしたら話が通じないのは日本語の問題かな 回帰って言ってランダムツリー系統を思い浮かべるバカなんていねーわ。
極論言って話誤魔化そうとしてるバカがいるな。 まー、ファナックは忍野の山の中とかだから好きな人からすれば楽園だなぁ。 分類されているprobabilityを推定される物理量に掛ける羽目になっちまった んなわけない
過去にもあったように今も一過性のブームなのは目に見えてるけどまだ下火ではない
むしろこれから 第三次AIブームは一次二次の時よりかなり実用的だから
長い間盛り上がり続けると思う
自動車自動運転技術も需要あるし
難点は高スペックのコンピュータが必要なところ 割と真面目にこの分野はハードウェアで頭打ちになるよな そうなんか
学習するときは高スペック必要だろう
しかし学習済データで動作だけする分には
スペックそれほど必要なくね
固定化されるけど 分散コンピューティングでなんとかなるから、
ハードウェアはそれほど問題にならないのでは クラウドで処理する場合
アップロードするデータが大容量だと手間がかかる
学習済みデータ使うだけならスペックはそれほどいらない 軽量化&ローカル稼働もGoogleが頑張ってくれてるから、なんとかなるだろう。
しかし、先駆者だったIBMは圏外に転がり落ちたな 学習は今でも相当金かかる。
アマゾンあたりがもう少し学習チップまわりで頑張ると思ってたが案外そうでもない。 テラバイト級のデータだとコピーするだけで時間かかり過ぎる
通信量課金や回線速度を考えるとかなり厳しいんだよな 主に動画系かな
前処理で暗号化してるからそこから復号化するのにも時間かかる >>447
数学が理解できない池沼扱いになるだけだろ ↑ Deep Learning習得と人材育成のコツ(初学者向け) 3BLUE1BROWN SERIES シーズン 1 • エピソード 1
Vectors, what even are they? | Essence of linear algebra, chapter 1
https://www.youtube.com/watch?v=fNk_zzaMoSs 数理科学卒でデータサイエンティストに
なって5年目です。
実務では数学使わないので
手が動かなくなってしまいました。
また勉強しなおすかなとも思いましたが
ITスキルを伸ばしたほうが良いと
まわりが言います。
そうなんでしょうか? 君が思ってることも周りが思っていることも両方正解。
つまり両方やれってこと。 数学使わなくてもいいけど、その人の価値は止まっちゃうよね。 ディープラーニングの基本は四則演算を微分してるだけとか言ってるおっさんがいたんだけどそうなん? 間違いではないが、全ての物質は原子が集まって出来ていると言うのと同レベルの話 どっかのおっさんが言ってたってよくわかってない奴が書き込んでるだけなんだから
言い回しまで正確なわけが無いだろ
多少は補完して読み取ってやれよアスペかよ >>538は「四則演算を微分」の意味が分かった上で、それは正しいのかと聞いているわけで 関数も演算子もある意味で一緒と考えれば間違ってはいないだろう。
てかそんなしょーもないことに対して正しいとか間違ってるとか考えることが無駄。
マウント合戦の元にしかならんわ。 理系分野において「些細な言い回しの違いなど気にするな、気にする方がおかしい」などと言い出したら終わりだ
些細な言い回しの違いに明確な定義の違いが含まれるのだから ディープラーニングに限らずソフトウェアってのはあらゆる関数を四則演算の組み合わせで頑張って記述してる
ディープラーニングは損失関数の最小値解を探すのことで、解を探すのに微分と逆伝播が使われる
間を全部すっ飛ばして書くと538みたいに書いても間違いではない 「○○の基本は四則演算」の○○にはコンピュータ上で行うあらゆることが当てはまるわけで
ディープラーニングの説明としては何の情報も含まない無意味な説明ということ >>546
逆だろ。
厳密論以外認めてなかったら物理学なんてほとんど成り立たんぞ。
気にする場面と気にしない場面があるってだけの当たり前の話が通じないってことのが問題。 極論をすれば足し算しかしていないけどな
減乗除は内部的には足し算に還元されるし 松尾氏がディープラーニングは最小二乗法といったのはあれは極論? >>553
最小二乗法での推定が正規分布以外では使い物にならないことを理解していれば極論どころか誤り あれそんな目くじらたてて批判するほどのことか?
softmaxだって誤差を二乗しないだけで理屈は大して変わらんだろう。
最尤推定で導出するとか正則化項をつけるのをベイズで理屈付けするとかあるが
あんなもん後付けだし。
そもそも誤りと断定するほどDNNのロスとしてどれほど差が出るか
まともな実験をしてる奴なんてほとんどおらんだろ。
cifer10でうまくいきました〜みたいなカス論文ばっかでさ。(松尾研もそんなんばっかだが) 最小二乗法は損失関数を残差の二乗和にすることこそが定義であって
ディープラーニングは別に何の損失関数を使ってもいいんだからそれはズレてる気がするな
損失関数の定義はディープラーニングのフレームワーク全体の中の一要素に過ぎない >>556
誤差をどう評価するかってモデルのかなり本質的な部分で超重要ポイントだぞ
要は採点基準なわけだからそれ次第で結果が全く変わってしまう 943
半島人は長い歴史で虐待され続けたため、人間不信に陥っており、
又医学的には拷問を受けたため、遺伝的に脳の前頭葉(脳の30%の部分)が傷ついて萎縮していると判明しています
だから豊かな感情に欠け、キレやすく、倫理的なことにあきらめ感が強く、無感動です
今後前頭葉を拡張復元していくことがよい結果を生むことになると思います
アメリカを中心に、高気圧酸素治療法というのがあります
カプセルに入って寝て、気圧を高めて高濃度の酸素を、人の血中に送りこむ療法です
損傷した脳の復元にかなり効果があることが、わかっていています
284
そこで提案だ
私だって、霊だから直接何かできるわけじゃない
だが、ヒントを与えられる
先ほど述べた、Paul Harch 医師達がやっているような、高気圧酸素治療(HBOT)の技術を生かしてみたら、いかがかな
つまり、代々前頭葉萎縮で悩んでいる半島人達の脳に、この治療法を応用するのだ
酸素を効率的に沢山供給することで、エデンちゃんの萎縮していた脳がほぼ通常に広がって戻ったのだから、
うまく考えて根よくやれば、半島人達の遺伝的に萎縮した前頭葉をふくらませられるかもしれない
そうしたら、彼らに失われていた人間的な感情も、わきやすく、育みやすくなるというものだ
半島人も他の民族と同じように気持ちが安定し、前向きになり、責任を持って自分の国作りをするようになるだろう
他に良い方法があればそれでもよいのだがね、1つの案として提示しておく
全世界の皆さんは、真剣に考えてやってほしい
特に、脳科学の研究者達はね 276
その方法というのは、
『高気圧酸素治療(HBOT)』と言う
縦長のカプセルの中に患者が仰向けに寝ていて、カプセル内に高濃度の酸素を沢山満たし、吸い込ませ血管に送り込む
又、その際に高めた気圧で酸素を濃縮して、血管に溶け込みやすくする、という仕組みだ
これにより女児は損傷して萎縮していた脳が、酸素の補給により急激に回復し始め、まもなく感情を表し言葉を発したり、母を認識し以前の記憶がよみがえった
又自分で食べられるようになり、運動能力も徐々につき、驚異的な速さで機能が回復して行ったのだ
五才になった今では、多少歩く時に平衡感覚がまだ足りなくて、左右にぐらつくのを矯正中だが、ほぼ普通に元気に歩き、遊べるようになった
278
私が言いたいのは、これを応用できるのではないかということだ
この女の子、エデン・カールソンちゃんを治療したのは、ルイジアナ州立大学医学部のPaul Harch医師だ
彼は、エデンちゃんに主に高気圧酸素治療を行い、1回45分、週5日、計40回で終了した
治療を始めて10回目で、ほぼ正常に見えるほどになったという
その後も40回(8週間か)まで治療を続け、最終的にMRI検査では、エデンちゃんの萎縮してすき間のあった脳が、ほぼ完全に回復していた
脳の回復が速い幼児だからということも幸いしたが、
最近では急性脳損傷のある成人でも効果があることがわかってきた
成人にHBOTを1回実施しただけでも、脳の組織回復に必要な複数の遺伝子の活性に変化が見られたという
(日本では、病院で脳梗塞の治療等に使われている) 280
朝鮮半島民というのは、医学的に研究された結果、
昔から先祖代々貴族等に虐待や拷問を受けてきたために、おびえて脳の前頭葉(脳の30%を占める)に沢山の傷が見られ、そこの部分が萎縮しているそうだ
前頭葉の前半部は、思考、自発性、感情、性格、理性等を司る
前頭葉が損なわれるとどうなるか
例えば、
忘れっぽい
思いつきで動き、不注意
自発性がなく、すぐ人を頼る
大変おしゃべりか、反対に抑うつ的
すぐ怒ったり笑ったり、感情を爆発させる
人を思いやるのが苦手
危険に鈍感になる
規則を守らない
1つのことにこだわり、同時に2つのことができない
過食や浪費
又、もしもその一部である眼窩前頭皮質が損傷すると、
過度に悪態をつく
性欲過多
社会的対話の欠如
共感能力の欠如
アルコール、薬物の摂取過多
等が見られるという
どれも困ったことだ
必ず全てが現れるわけではないし、個人差もあるだろうが
943
半島人は長い歴史で虐待され続けたため、人間不信に陥っており、
又医学的には拷問を受けたため、遺伝的に脳の前頭葉(脳の30%の部分)が傷ついて萎縮していると判明しています
だから豊かな感情に欠け、キレやすく、倫理的なことにあきらめ感が強く、無感動です
今後前頭葉を拡張復元していくことがよい結果を生むことになると思います
アメリカを中心に、高気圧酸素治療法というのがあります
カプセルに入って寝て、気圧を高めて高濃度の酸素を、人の血中に送りこむ療法です
損傷した脳の復元にかなり効果があることが、わかっていています >>553
どういう文脈で誰を相手に、んな不適切な例えを出したのだろうか? >>555
分からなければとりあえず正規分布を仮定するのは普通だし、一般向けの説明としてそこまで間違っているとは思わないな パーセプトロンは最小二乗法とは違うアルゴリズムだなあ 正規分布って「分からないからとりあえず」程度の理由で勝手に仮定していいほど当たり前のものではないんだけどな はじめまして。よろしくお願い致します。
日頃ロジスティック回帰などを用いて、受注になるかどうかモデリングと予測をおこなっているのですが、
以下のケースを予測できる機械学習のモデルや考え方をご教示いただけますでしょうか?
----
ケース例:※1
目的変数:案件が売れる売れないの二値
説明変数:顧客ターゲットの「業界」(X)、「提案商品」(Y)
(背景_顧客が業界(アパレル・飲食)では 「提案商品ア」が特に売れる.
顧客が業界(ゲーム・携帯)では「提案商品イ」が特に売れる.)
上記ケースのように顧客の業界によってどの商品が効くか効かないか偏るケースがあると思います。
----
一般化線形回帰は説明変数間の影響はないものとすることは認識しておりますが、
それでは、今回のケースのような説明変数X,Yの条件に応じて目的変数の予測精度をあげる方法はどのようなもにがありますでしょうか?
業界4種と商品2種をそれぞれ変数を分けて設けるのは今回違うように感じています ※2
※1イメージ :log(1-p/p) =aX + mY +・・
※2 :log(1-p/p) = aX1 + bX2 + cX3 +dX4 + eY1 + eY2 +・・
勉強不足で申し訳ありませんが、よろしくお願いいたします。 >575 デフォルトの名無しさん
ご回答いただきありがとうございます。573の者です。
仰っていただきました通り、条件で分別してモデリングする方法ですと予測は可能ですよね。
(業界指定のモデルや、提案商材の指定のモデルなど)
機械学習1つの式で表現可能なものなのかどうか、私自身知識不足で判断できず、
上記573で投稿をさせていただきました。
先ずは条件絞りでモデリングし、予測に反映していこうと思います。
この度は大変ありがとうございました。
>574 デフォルトの名無しさん
返信いただき大変ありがとうございました。 532です。
レスありがとうございます
数学の勉強をまたやり直す
ことにします。
三年ほどデートも酒も映画もなしで
頑張ろうと思います。 >>514
高スペックのコンピューターていってもせいぜい数百万でしょ
学習しないで推定だけならもっと安くすむ
たいした問題じゃない ラズパイで周辺込みで2000円ですほんとうにありがとうございました いやびっくりするほどヤバいよ
うちんとこも中朝ばかり 大学が多すぎるから仕方ない
短大とか専門学校はほぼ日本人いないでしょ 0と1でのみ解が求まるっての
全く知りませんでした。
おまいらは知ってた? お前ら機械学習名乗るにはE、G検 持ってんだろ
持って無かったらアホの極み EはともかくGの試験なんて問題見れば分かるけど単なる言葉遊び、日本語パズルでしかない
G合格したからジェネラリストですとか言ってたら笑い者だしそもそもあんな試験受けようと考える時点で論外だわ >>595
禿同!
ダメな資格ビジネスの典型例
ダメ過ぎて笑いも取れないwww 免許じゃないからな
試験なんて自己満足でしか無いし、成果物が全て 統計検定くらいまともな内容じゃないと相手にされない 一日一個で良いから勉強したこと書いてけ
一行で学べるいいこと書いてけ
…おれはそれ見て勉強した気に慣れれば十分 今日学んだこと
NatureではSARSの頃から武漢の感染症研究所が造った人工ウィルス説あり
しかもエビデンスは当時のWHO
中国は都合が悪いのでWHOを支配下に治めようとその後WHOの買収に乗り出す
そして2020年現在WHOは中国の思うがまま 好きか嫌いかで言えば好きな方
別にうのみにして信じてる訳じゃない
昨日学んだことはNASAが公開してる火星探査機の撮ったとされる写真が
カラー情報描き替えるとカナダのどっかの風景写真そっくりだったこと 昔月面着陸も嘘だったんじゃないかって番組もあったな
かなり検証内容が詳しくて、何個もエビデンス()をあげてた
グーグルもネットも黎明期かそれ以前で、ちゃんと調べようとしてもなかなかすぐには調べられなかったような時代
現代に似たような話題で、しかも「学んだこと」とか言って恥ずかしげもなく発表するやつが存在するとは思わなかったけど 「学んだこと」ならそのエビデンス元も書かないとなw 軍事的な視点で見るとすればむしろ月面着陸は隠した方が良い話だと思うがな。
陰謀論者ってのはそういうところめちゃくちゃなこと言い出す。 おい、お前ら今日はなに勉強したんだよ
ちゃんと書いてけ >>19
線形代数は実用計算も重要だけど、線形性や直交性などの考え方のほうが重要だ >>612
そんな単語言うだけなら誰でも出来る
自分の言葉で解説できないと勉強したことにはならんぞ 機械学習のアルゴをpython で実装出来るやつがこのスレに何人いるか? >>617
AIに報酬の概念を与えるだけで
自律的に見える行動を取れるようになる強化学習は奥が深いな ソース読んで無いけども、勝ちパターンしか学習していないから、
負けそうになると学習に無いパターンになるだけじゃね? >>624
強化学習にもいろいろ種類があるからな
ソースだけじゃわからん
方策勾配法で強化学習をすれば局所解に陥りやすいから、人間にはたまたま攻撃的に見える方策を取ってしまうのかもしれん >>626
アホなん?
フレームワーク貼り付けても馬鹿の一つ覚え
ゼロから組めるか聞いてんだよ >>629
ゴメンね
俺がコピペレベルで、
kerasでなんとかDLやってるだけ。
だからPythonでゼロから作るとか
なんのことやらわからんの。
モデルを最初から作るって意味? >>630
Pythonでループ速くする方法とかあるみたいですよ。
俺はやったことないけど。 ホント、朝鮮ゴキブリBot君は
知ったかのクズだな(笑)
意味不明の書き込みしてドヤ顔してるというクソチョンw
ま、チョンはそういう人種だから
朝鮮では女に人権がないから強姦しても全然OK
それを日本に持ち込んでいるのがクソチョンw
さっさと半島にかえれよクソチョンw >>632
Pythonのnumpyさえ使えば出来るだろPCA k-means の機械学習からRNNやCNNのディープラーニング系まで さすがに強化学習やGAN VAEなんかはフレームワーク使わないと出来ないが >>595
G検が言葉遊びだ ってか資格とってからいえや
法律 AIの歴史 DLの幅広い知識が問われる
法律関係はかなり難問 120分で250問くらいの問題が出る 1問で30秒で解かないといけない
お前知ったかすんなよ カス野郎 はなのいろはうつりにけりないたづらにわがみよにふるながめせしまに >>643
フレームワークで引数入れてAIエンジニア気取るバカ 学術の巨大掲示板群 - アルファ・ラボ
ttp://x0000.net
数学 物理学 化学 生物学 天文学 地理地学
IT 電子 工学 言語学 国語 方言 など すごく初歩的なDenseだけ使ったDLをやってるだけで
理論なんてさっぱり何も知らないんだけど、
ちゃんと給料もらってます!
この状況が定年まで続けばいいなーと思います! IF文で完ぺきに解ける課題をDL指定でやれ案件が普通にあったりするから、
>>649の地位は安泰 忙しいときに5chなんて
見る余裕ねーよ
朝鮮ゴキブリBot君は
ず~っとヒマだから
粘着してるわけで(笑) ただの回帰分析でもTensorflowを使っていれば要件を満たす場合もあるしな 1.210.138.208.231.rev.vmobile.jpのbot参上 https://www.youtube.com/watch?v=dNZ-JqEq7x4
ディープラーニングって何だか全然分かってなかったけど、これ見てちょっとだけわかった
お前らって詳しいんでしょ?
毎日いろいろ書いて教えてくれよ やっぱ見た目は大事だな
オタクっぽいのもアレだが
こういうのも受け付けんな 小規模なディープニューラルネットワークならどんな言語でも割と簡単に自力で実装できるのにそれすらしたことない人が理解できたとか言うのはおかしい たしかにうさんくさいと俺も思った
でも、どうせなら内容について言ってくれ
何か間違ってるなら、間違いを指摘してくれ >>662
先にいえよ馬鹿
もう一度見る気にはならんぞ馬鹿
再生回数を稼ぐために教えろとか言って、
ただで教えてもらったことを
また録画してUpしようという魂胆だろ馬鹿め
死ねよクズw 無駄な書き込みやめろ、自分で勉強しろ、それで分からないとこがあったら質問しろ >>667
二度とクズ動画Upできないようにしてあげよう! >>669
このスレにいるような人にとってはレベル低い内容なんじゃないの?
ディープラーニングが何かを知らない人にディープラーニングが何かを説明してるだけだし いい入門書増えたから動画で見るよりちゃんと本読んで欲しいね
数式も他の分野に比べたらそこまで難しいものではないんだし そういやオーライリーで新しいのがでるんだっけ?
でたんだっけ?フレームワークを作るとかってやつ。 とりあえずゼロから作るディープラーニングあたりは読んでおかないとどうしようもない
ただ肝心の逆伝播は完全に省略してるから
そこは自力で理解する必要がある 数値微分で実装するような書き方になってたな。
自動微分実装はさすがに一からはつらいわ。
tensorflowにしろpytorchにしろ結局一番めんどくさい実装はそこだしな。 >>675
いや数値微分は検証に使ってただけだよ
本でいうアフィンレイヤーの逆伝播とか
CNNの逆伝播はソース見てくださいというスタイル
そこの数式の導出がディープラーニングで1番難しいところなのだが >>676
RNNの逆伝搬もムズイぞ
そのままでは計算量爆発するから
いろんな仕組みが必要。
今、forget のところのソース追いかけてるが
マジ難しいことやってるよね。
誰かに教えて欲しい。 まともな記事はこっちね
https://tsujimotter.はてなぶ ログ.com/entry/misunderstanding-of-abc-conjecture 4Dエンジン
ttp://x0000.net/topic.aspx?id=3677-0
matrixのライブラリ
ttp://x0000.net/topic.aspx?id=3711-0
ある強力なFor関数
ttp://x0000.net/topic.aspx?id=3630-0
SQLライブラリ
ttp://x0000.net/topic.aspx?id=3675-0 >>678
「文系だから数学わかんないてへぺろ」
で、済ましそう 無相関の模範回答みたいなグラフを相関がある証拠としてドヤって出した
東大の医学部卒の自称専門家も居たな >>678
新聞記者のレベル下がりまくってる気がするよ
うちはセキュリティ会社でたまに取材が来るんだけど、プライド高いのやらチャラいのやらが来て、言ってもいない稚拙な記事書かれるのよ
この間のが特にひどくて、会社名出さないでって悲鳴上がったわ >>684
> 東大の医学部卒の自称専門家も居たな
西内啓は、あのウソだらけの企画本が売れるまでずっと派遣やってたんだぜ?
なので本にかいてあるデータ分析武勇談は、みんな他の人がやった分析。
派遣先の人らが爆笑してたw >>687
社会のレベルの方が格段に上がっているため、学士レベルのジェネラリストwじゃケラ才にしかならないってだけじゃね? >>689
> ケラ才
子供のころからずっと「オケラ」と呼んでいたので、
「オケラ」が一般名称なのかと思い込んでいたわw >>688
上昌広では?
日本は理系最高峰の学位でも、こんなんしかおらんのか > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw 初心者にいい学習環境ってどれですか?チュートですら難しいし、有料が多いです ↑ってことはアナコンダですよね
ソニーのあれは時間制限あるみたいで諦めました >>698
使われてないの勉強してもしょうがないしPyTorchとか? 今はジュピターよりVSCodeの方がいいかと
アナコンダでもオプションでVSCodeをインストールするし、ジュピターは色々と面倒で投げた
VSCodeでも1行づつ確認出来るし 1%の確率で発生する事象を検証する為に必要なサンプル数ってどう計算すりゃいいんだ? PD(Probability of Default)の推計では20年位前から0.1%以下の事象なんて扱ってるよ >>707
参考書に載ってる区間推定って
幅が広すぎて実務に役立ちそうに無いが、使う機会有るのだろうか え?区間推定とか基本中の基本だろ
実務で役立たないって工事現場ででも働いてるのか 統計の入門書レベルの区間推定は誤差分布が正規分布を仮定していたり縛りがきついので現実のデータは扱いにくい
ベイズ的な区間推定まで理解すれば現実でも使いものになる >>710
サンプル数を増やせば幅は狭くなるよ
逆に言うと、少数のサンプルで確定的なことを言うのは無理ということ
当たり前のことだけど >>710
仕事によって違いますよ。
信頼区間の推定なんて、表面的には全く使わない仕事もあれば、
点推定だけで終わる仕事もありますし、
信頼区間の推定がメインの仕事もあったりと、さまざまです。 ベイズの方が直感的で分かりやすいと思うんだけど、なんで流行らないんだろう? >>715
2000年あたりは流行ってたよ
性能競争の中で廃れた
ディープラーニングの前のアダブーストとかにも勝てなかったからね 「PCR検査多い国はコロナ死亡率減 千葉大がデータ分析」
https://www.asahi.com/articles/ASN4V7WZCN4QUDCB00B.html
この分析って、PCR検査の実施数と死亡率に相関があるわけではなく、
単に分母(検査数)が増えれば、感染者が増え、それに応じて感染者当たりの死亡率が下がるだけじゃないのか? その通りω
ただし検査数に対する陽性率は日本ちょっとやばい 誰でも病院行けば検査受けられる国と重症でなければ検査すら受けられない国では陽性率は比較できない 軽症者まで陽性結果が出してくから、感染者あたりの死亡率が下がるってことか?
検査受けた人の重症度もデータに載せて分析まではしてない感じか
後は単に医療設備が整ってるかどうかの差でもあるだろうし、さすがにその辺の事は分かって分析してるだろうけど
朝日新聞だし、馬鹿な記者が何も理解せずに適当な記事書いてるだけに一票入れとくね >>717
人口あたりの死亡者についての議論
感染者当たりの死亡者や検査数当たりの死亡者ではない 検査をするかしないか、という事象と死亡率とに真の因果関係があるわけがないのに、
どうして「検査をすれば死者が減る」というトンデモを平気で公表できるのでしょうか?
検査をさせてもらえない現状には、私も深刻な問題があると考えていますが、
そんなトンデモが発表されるにいたっては「ついていけない」と思います
検査をするべき、というまっとうな意見にトンテモ理由を付与する神経を理解できませんね >>723
新コロナは単なるインフルエンザではないようですね
http://blog.livedoor.jp/beziehungswahn/archives/56651910.html
>最近、このウイルスはHIVウイルスのように免疫系をどんどん破壊していく能力を有することが判明した。スパイクを介して免疫の司令塔であるT細胞に憑りつき感染し、T細胞と心中し、T細胞を殺すのである。
>https://www.nature.com/articles/s41423-020-0424-9
>https://www.peakprosperity.com/the-coronavirus-has-a-second-route-of-attack/
>https://nazology.net/archives/56567
>
>エイズウイルスは飛沫感染はしないが、新型コロナウイルスは飛沫感染し、エイズウイルと同じような破壊力を有するウイルスだったのである。
>飛沫感染する新型エイズウイルス。なんて恐ろしいウイルスなのか。 >>724
論理のすり替えにもならない、単なるアホであった 感染者数はランダムサンプリングではないので数字としての意味はないから
重症者数と死者数だけを発表してほしい
議論はこの二つの数だけですればいい >>722
発表が
o 「PCR検査多い国はコロナ死亡率少」
x 「PCR検査多い国はコロナ死亡率減」
だったとしても
文系馬鹿記者が脳内変換して「検査をすれば死者が減る」って描いてしまう 記者が書いた記事じゃなくて、千葉大の記事読んだほうが良い
樋坂章博 filetype:pdf
> 検査をするかしないか、という事象と死亡率とに真の因果関係があるわけがないのに、
> どうして「検査をすれば死者が減る」というトンデモを平気で公表できるのでしょうか?
少なくともこれの答えははっきり書かれてるよ 朝日新聞の記事が無茶苦茶なのは今に始まった話ではないが、
千葉大の報告も、日本語が相当いい加減だな
もっとわかりやすく書けるはず やっぱ、変
この研究は世界で初めて新型コロナ感染症での
PCR 検査陽性率と死亡者数との相関を見いだしたものです。
死亡者を増やさないためには、PCR 検査を充実させることが必要です。
ttp://www.chiba-u.ac.jp/general/publicity/press/files/2020/20200421covid19_PCR.pdf
ソースが語弊を生みそうな書き方をしている上に
記事は朝日新聞の「PCR検査をしないのは隠蔽だ」とでも言いたげな角度を
付けてるから、余計に変 よーく読むと
感染者が多い国では死者が多い
というあまりにも当たり前のことを言っているような気がする
PCR検査をやみくもに増やすのではなく、
ぜひランダムサンプリングに近いやり方で検査してほしいと思う
そうしないと母集団での分布がわからない >>731
相関関係はあくまで相関関係であって因果関係ではないのですが、
最近のサイエンスは相関関係ばかり調査して因果関係には踏み込まないのが、科学的な態度ということになっているようです
まあ因果関係の認定は本質的に主観的なのは私も認めますが >相関関係はあくまで相関関係であって因果関係ではない
その通り
>>722 も同罪 PCR検査が不十分≒陽性率が高い→早期発見が出来なくて感染拡大→死者増加
PCR検査が不十分≠人口あたりのPCR検査が多い
---
正しいかどうかは置いといて、主張を簡潔に書くならこんな感じか? 因果関係を持ち込んだらおかしなことになる
「>>731のデータから、死亡率を抑えることができれば、PCR検査数は少なくて済むと言える」 今日の大阪市民病院の検査結果(ランダムサンプリング)だと抗体持っているのは3% まだアサヒがー言ってんのか。。こんな時でもどうしようもない連中だな。 算数&ラズパイから始めるディープ・ラーニングを読んでいるのですが分からない部分があるので教えていただけないでしょうか。
https://dotup.org/uploda/dotup.org2133096.zip.html
zipファイル内の.plファイルでmfcc_1.txt からmfcc_2.txt に変換されていると思うのですが
perlに詳しくなくどのような数式で変換されているのかわかりません
教えていただける方いらっしゃいましたらpythonに変換して教えていただけないでしょうか。 sh に描かれてる
python print_mfcc.py $outdir/data.mfcc 13 | perl normalize_SPTK_modified_print.pl | sed "s/\t/ /g"> $outdir/mfcc.csv
のことを聴いているの? perl 部分の中身は
関数 mean_var は
mean 全部の行の全部の列の各値の平均値と
std 標準偏差 (各値の平均値との差の2乗の和の平方根) これは定義通り
dim 列の数
を返してるだけ
関数 normalize は上で求めた値の正規化 これもおそらく定義通り
なので python 用なら同様のモジュールがあるのでそれ使えば良い 本の例題の内容なんか、どうでも良いと思う。
説明が無いなら、無視すれば?
個別のデータの変換の仕方を知ったところで、他で使えない。
やり方・外枠だけを見れば、十分 >>742
pythonのmeanとstdで変換後のファイルと同じになりました。
ありがとうございました。 simulationライブラリで純粋な関数式プログラミングをする
ttp://x0000.net/topic.aspx?id=3631-0
UIライブラリ (C#, 2D) を作ったよ
ttp://x0000.net/topic.aspx?id=3688-0
連続と離散を統一した!
ttp://x0000.net/topic.aspx?id=3709-0
4Dエンジン
ttp://x0000.net/topic.aspx?id=3677-0
matrixのライブラリ
ttp://x0000.net/topic.aspx?id=3711-0
ある強力なFor関数
ttp://x0000.net/topic.aspx?id=3630-0
SQLライブラリ
ttp://x0000.net/topic.aspx?id=3675-0 >>715
ベイズの定義はいろいろありますけど
普通に分析すると、それベイズですから
>>716
んなこたあない。
ベイズの定義を調べてみよ。
ちな、Wikiは大ウソ まあベイズかどうかは通常は解釈の問題だわな。
EMで処理するのをベイズだというのもあるのかもしれんが。 GradientBoostingって必殺技みたいでかっこいいよね。
実際、バギングのrandomforestとどっちが精度高いのかな? KaggleのタイタニックやHouse Pricesでフルスコアが続出しているのは、
完全な解法が有るのか
トライ&エラーで検証用のデータに対してもオーバーフィッティングさせてるのかどっち? 高卒CRUDシステム開発者だけどAIこそ理数系大卒じゃないと無理だなと思う
逆にCRUDシステムやる大卒は数学能力もったい無いというか給料泥棒に思える あなたの言う給料泥棒と
私が頭に描く給料泥棒が
ミスマッチしてます >>749
そのくらい有名なデータだとテストデータも出回ってるからカンニングじゃね AI面白そう
AIでエロ画像を全て橋本環奈にしたいわ
仕事でなんの役に立てて良いかは解らんけど >>749
タイタニックはkaggleオリジナルのデータじゃなくて、一般に公開されているものだから、それを見れば「正解」がわかるって聞いた >>753
静止画だけじゃなく、AVでも出来るけど、倫理的に商売にはできんな
流失したらリアルかディープフェイクか見分けがつかないし > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw >>759
何回も同じレスしてるけど元レスどこだよ
楽しいのかそれ またまた朝鮮人の犯罪!!!
> 職質中逃走の車、ひき逃げ歩行者は死亡、運転の31歳女逮捕 東京
> 逮捕されたのは、川崎市川崎区藤崎の飲食店店員、中川真理紗容疑者(31)。
この中川は朝鮮人!!!
本当に朝鮮人は残虐な犯罪者ばかり!
朝鮮人は皆殺しにすべし! >>763
どうして鮮人だとわかったのですか?証拠を出してください 講談社のMLPシリーズが難しくて理解できん
SEはオライリーが限界ぽいけど
東工や旧帝の情報学部なら、余裕で読める基礎学力が付く? > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw 今から機械学習のライブラリ学ぶなら何がおすすめですか?
過去にtensorflowとpytorchで転移学習で遊んだことがあり知識はゼロから作るを一通り終わらせた程度です
tensorflow2とpytorchが主流でしょうか? AIブームだなんて言ってるが全く伸びない過疎スレ。 真面目な話とか本格的な話を不特定多数とやりたい人はslackとかに集まってるだろう >>776
ブームが終わって実践フェーズに入ってるから AIブームの結論として画像認識以外は従来手法とその延長で良くね?ってことで終わっちゃった 大量データがないと深層学習はたいして役に立たない
少量データなら既存の機械学習でいいよね?って感じ
だったらこれまでとたいして変わらんねってところ
画像扱うところは進んでるけど、だんだん専門分野への適用が進んできてて、
機械学習だけできるって人材は必要なくなってる
他に専門がないとデータサイエンティストは危ないと思うわ 意味分からずAPI使ってるだけの人も機械学習エンジニアと呼んでデータ加工するだけの人をデータサイエンティストと呼ぶなら
そんな人は危ないだろうね
理論分かってたり、自分で高度な前処理できる程度の実力なら危ないというほどではないのではないかね バブルは終わった感じだね
SEと似た感じになりそう ゴリゴリ精度を上げてKaggleでメダル取っていたようなAIエンジニアも
NASやAutoMLの進歩で危うい
AIエンジニアがAIに負けることは、
機械学習のメソッド総当たりのアルファ碁が
自己学習だけで賢くなるアルファ碁ZEROに負けた時から予測されていたことだけど >>785
理論がバリバリ分かるのってそんな重要なの? >>789
それを人に聞かなければ理解できない時点でアウト >>790
いや俺機械学習は詳しくないただのしがない数学専攻の者なので >>794
・製品の不良抽出
・操作補助
どちらも画像系。
100%を求められてはいなかったから実現できた。
具体的には申し訳ないが書けません。 ディープラーニングッテ数学者並みの知識が必要ですか?
顔作りたいんですが、、、
人の
ただ、何に役立てたらいいか分からんですけどね 二昔前なら、AVのモザイクを消すのとかつくって遊ぶんだけどな。 gan in actionのサンプルプログラムを試してみたら? 数学者レベルじゃないと仕事にならないですよn(´・ω・`) モザイク消しってAIで頑張るより
適当にアワビとかもってきて
コラした方が実用的になる aiでお金になるん?(´・ω・`)wodpressのほうがいいんじゃない >>795
画像系は実需進んでるのね、ありがとうございます。 AIの目標値って人間よりミスが少ない程度で良いはずなのに、
何故か、100%を求めてくるユーザーが多い不思議 >>796-798 結局そこまでの精度じゃないと使い物にならないからでは?
普通の製品開発に使われる数値計算のアルゴリズムって
誤差数パーセントでようやく使い物になるレベルだから 感覚に頼るもののほうが実績あるように感じる。
AIキリたんとか、自動マスタリングとかの音楽物はなかなか実用的。
上ででてた顔が作りたい。ってのも100%がなんなのかわからんので
用途が明確になれば受け入れられると思うよ。 スクレイピングって役立つ?
aiと関係あるか分からんけど、データがないと分析できないし スクレイピング(情報抽出)って機械学習の数学に役立つんだろうか・・・・
なんだろう散布図のグラフかなぁ・・・
だいたいaiって近似関数だよなぁ・・ わかんない
エロ画像作るにもデータになる画像拾ってこなきゃいけないし、必要ではあるんだろうけど
機械学習って難しいの? >>813
一般に言われてるものは基本的に統計学!
ー>>803 >>811
個人が自分でデータセット集めるのに約にたつ。 >>803
普通に数学は大して分からなくても出来るぞ
ちょっと数学出来る理系の学部卒レベルとかだろ 応用情報処理試験のアルゴリズム問題が解ける程度なら
表記が数式に変わっても理解できるだろう 今は大学の講義ノートや講義そのものが web で見れるから、勉強しようと思えばいくらでもできる
youtube も最近充実してきたね、ヨビノリおもしろい 高校レベルの微積と大学レベルの線形代数の基礎ぐらいできればOK >>808
>>810
AIの自動車運転の動画観たけど
人間が運転してても絶対事故るだろって無理ゲーのケースが多い印象
人間でも事故起こすのにAIだと事故率0とか絶対無理 IT掲示板群 ttp://x0000.net/forum.aspx?id=15
学術の巨大掲示板群 - アルファ・ラボ ttp://x0000.net
数学 物理学 化学 生物学 天文学 地理地学
IT 電子 工学 言語学 国語 方言 など
simulationライブラリで純粋な関数式プログラミングをする
ttp://x0000.net/topic.aspx?id=3631-0
UIライブラリ (C#, 2D) を作ったよ
ttp://x0000.net/topic.aspx?id=3688-0
連続と離散を統一した!
ttp://x0000.net/topic.aspx?id=3709-0
4Dエンジン(画像有り)
ttp://x0000.net/topic.aspx?id=3677-0
matrixのライブラリ
ttp://x0000.net/topic.aspx?id=3711-0
ある強力なFor関数
ttp://x0000.net/topic.aspx?id=3630-0
SQLライブラリ
ttp://x0000.net/topic.aspx?id=3675-0
PS malloc / free を実装してみた (C#)
ttp://up.x0000.net/files/TMallocTest.zip 一番簡単な画像生成って何?
最終的にはロリ作りたいが > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw お前らもう中学数学からはじめるAI(人工知能)のための数学入門見た? 大卒なら線形代数、微積程度は最低限できるはずだから見ないです。 線形代数は使わないが、微積分、三角関数、ベクトルあたりは普通のプログラムでも使わん? 3Dとかゲームとかは普通に線形代数使う
本人が線形代数だと思ってなくても使ってる ここで教えてもらえと言われてきますた
わかりやすいサイトとかあったら教えてもらえないンゴ?
ちなde >>833
deなら社内にkaggleマスターがいっぱいいるんじゃないか? 線形代数で扱うベクトルは単に複数のデータをひとまとめにしただけの物ではないから厳密には配列と同じとは限らない > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw ベクトルは1階のテンソルなのでテンソルが満たすべき前提を満たしていればOK スクレイピングと画像生成とデータ分析って学習順序とかありますか?
それぞれ無関係ではないと思うので、結局はどれも必要になると思いますが。 >>844
そりゃ
スクレイピング(読み)と画像生成(書き)とデータ分析(算盤)
だから
input→calculate→output
でしょうね >>845
画像生成とデータ分析 って別の分野じゃないんですか? >>846
自分で
> それぞれ無関係ではないと思うので、
>結局はどれも必要になると思いますが。
って書いてて何言ってんの?
分析した結果をグラフとかに視覚化するのは
画面に点を打ってるという意味では
画像生成も似たようなもんでしょう
個人的に医者だろうと数学者だろうと絵が上手い人の方が頭が良いと思ってますけどね。 画像生成する場合、
収集→分析→画像生成
ではないのですか?
例えばアイドルの画像を学習させて、オリジナルを作る場合など >>848
そうですよ。伝わって無かったですかね
スクレイピング収集(読み込み)→input(入力)→
データ分析(そろばん)→calculate(計算)→
計算結果(画像生成)→output (書き出し) 【音声認識処理】
音声>文字列変換入力>単語頻出確率統計から回答生成>文字列変換出力>発話
【画像認識処理】
画像>数値列変換入力>数値頻出確率統計から解答生成>数値列変換出力>画像 >>850
ありがとうございます
分析といっても色々だと思うのですが、例えばコロナウイルスの広がり方の分析と(今後の予測など)、画像生成のための分析では、関連性はあまりないのでしょうか? テーマ(お題)じゃなく、分類と回帰で分けて捉えた方がスッキリする >>853
コンピュータの本質は電卓だから
未知の出力 y = f(x) で
関数 f(x) = 2*x と見積もられるとき
入力に x = 3 を入力すると f(3) = 2*3 = 6 で計算出来て
y = f(3) = 6 と分かるれけど
関数が未知で大量の入力と出力の組み合わせ
f(3) = 6 , f(5) = 10, f(90) = 180, f(3000) = 6000,••••••
から未知の関数f(x)を導き出すのが機械学習
【広がり方の分析】
粒子の初期状態入力→>拡散方程式に代入計算→>座標プロット
【画像生成】
A画像入力→>数値化して特徴量A抽出→>特徴A関数化
B画像入力→>数値化して特徴量B抽出→>特徴B関数化
ランダム画像入力→>特徴A関数代入→>A画像生成
ランダム画像入力→>特徴B関数代入→>B画像生成
【動画認識】
カメラ画像入力→>オブジェクト認識して直前差分からベクトル計算して移流→>予測結果を画面に合成 ↑どちらにしても特徴を抜き出して反映させているのですよね。 >>856
style2paintとか各種特徴のパレットがあったしね
ざっくりといえばそうなんでしょうね、にしても数学のスレなんで
特徴抽出の数学について話し合って欲しいけどね > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw 字幕が日本語だったりイタリア語だったりアラビア語だったりフランス語だったり安定しないんだが
googleさんがアホなのか?
どこで設定出来る? ぼんやりとした目的しかないのに学習するのっておかしいと思うんですが、いまいち個人で何に役立つかわからない
こんな場合な何を学習したらいいと思いますか? >>863
FPGAでCPU作る。次はSDRAMインターフェース作る。 >>863
オペレーティングシステム タネンバウム DeepLearnnigであろうが、人工知能であろうが、女心は解らんよ https://www.youtube.com/watch?v=Kd17c5m4kdM
レイ・カーツワイルの講演
2045年にシンギュラリティ来るって予言した人
PCの性能向上の話とかパーセプトロンの話とか 今のペースだと2025年くらいに来そうだが、我々の生活に変化は無いだろう コロナへの勝利をもたらすものが特異点の証明となるだろう > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw >>830
中卒ですが、位相空間論、情報幾何学が分かります colabとかじゃなくてローカルでDLやりたい場合、グラボは何がおすすめ? >>875
位相空間論と情報幾何学はどのように独学されたのですか?
可視化プログラムは何で書かれてますか?
オススメのサイトか書籍を教えてください。 情報幾何を使いこなして役立つレベルならイッキに最上位クラスかと
これほぼ一般相対性理論だろ?
機械学習、ディープラーニングをやってる人のうち使いこなしてるのは一桁%だろう
なんとなくは理解できたとしてもどう使うかは難度高いかと
よくはしらないが >>878
機械学習の聖書になりつつある「ゼロから始めるDeeplearning」などを参考にするなら
GTX1060以降 チューリングのtensor CoreつかうならRTXシリーズ
Pythonのバージョンと
CUDAケーパビリティバージョンによりけりでハマってしまうので
ドライバーの相性をよくお調べになって下さい。 ウェブ検索結果 "情報幾何 ads"
情報幾何における BTZ ブラックホール
そこでは量子系のエンタングルメント・エントロピーの. スケーリング法則が重力理論側の幾何学的性質を強く規定しており,この対応原理 を深く理解するためには量子情報理論的な解釈が必須であると考えられる.
松枝宏明 著 - ?2018
福岡大学理学部応用数学科 田中 勝
AdS/CFT対応の情報幾何バージョンー. 2. τ-情報幾何学の概要(1) т-アファイン ... AdS/CFT 対応.
非専門家のための AdS/CFT 対応入門,中村真(2011)より. ブラックホールのエントロピー. 何らかの 3+1 次元多自由度系のエントロピーに対応.
AdS/CFT 対応における Entanglement Entropy と ... - 京都大学
2018/06/08 - つれの構造に、AdS 時空の幾何学の情報が反映されていると読み替えることができる。
この重力理論において定義されたエンタングルメントエントロピーの双対となる幾何学量を、ホログラフィック. エンタングルメントエントロピーと呼ぶ。
BTZブラックホールのヘッセ構造
重力の古典力学で容易に計算できる”. AdS/CFT対応は様々な検証がなされ,広範囲に及ぶ応用例を有しているが,その基礎 的なメカニズムについての理解は不十分である.
本研究では,それらを直接的につなぐものとして情報幾何の枠組み
量子重力と量子情報 - Kavli IPMU
AdS 空間内の面という幾何学的な量が CFT における. 純粋に量子情報的な量と結びついたことは、動的時空 の生成メカニズムが極めて量子力学的であることを意 味する。
また、量子重力の理論はホログラフィー原理. により低次元でのみ定義されるという見方 ...
量子ビットの幾何学から重力へ 高柳 匡 - 仁科記念財団
AdS/CFT. 一般相対論近似. D+1次元反ドジッター時空. (AdS空間)における. 重力理論 (超弦理論). D次元空間における ... 理論の自由度. 宇宙の幾何学.
ブラックホール. 物性物理. 場の量子論. (量子)重力. 量子情報. テンソルネットワーク. 量子計算. (複雑性). >>882
ちょと何言ってるかわかんない
3分クッキングで頼む
グルメリポートは良く噛み砕いてから食レポお願いします 情報幾何のググった結果をはっただけ
おなじワードで検索してPDFを読んで >>879
情報幾何学は関数空間だから可視化なんて出来るんですかね...
脳内でイメージすることすら難しいですよね
アイデアがあったらむしろ教えてほしいです^^
書籍は情報幾何学の新展開が定番書だと思います
位相空間は沢山ありますね
>>880
DL含めて普通の回帰分析は説明変数に誤差があるとだめなんですが、統計学モデルをそれ用に書き換えた後に情報幾何学を使ってパラメーター推定したことがあります
それ以外では使ったことないですけど、それでもオススメしたいのは情報幾何学を学ぶ過程で
ブレグマンダイバージェンス
特異モデル
指数型分布族
などなど統計の大切なこと沢山学べますよー
関数空間における多様体というのを良く知っとかないと情報幾何学の入り口にも立てないんですが、それさえ乗り越えればその先はそこまで難しいかなーといった感じです
役立たせるのは違った難しさがあるでしょうけど^^ 関数空間と表現したのは不適切だったかもしれません
幾何学的考察の対象となる確率分布の空間は関係式で書かれるものではないという点で微分幾何学の基礎で学ぶものとは違い可視化が難しいということがいいたかったのです...! >>885
ありがとうございます
これから勉強するところなのでよくわかりませんが、
我々は普段から3+1の3DCG動画を2次元ディスプレイで観察してるじゃないですか
XYZ→RGBカラー化してそれをさらに3次元の座標点にカラーボリュームとして時間で動かすなら
6次元+1時間次元への写像までなら可能なんじゃないですか?
gpt3でのヒントンさんコメントみたいな何千万とか何億のパラメータの可視化じゃどうしようもないでしょうけどね。 >>887
中心を原点とする単位円の方程式はx^2+y^2=1ですからxを決めればyが求まりますね
ですから可視化が簡単に出来ます
一方、正規分布の平均を代入すれば分散が直ちに決定されることはありませんから可視化は難しいというわけです^^
簡単に書く為には次元数に関わらず関係式が必要ということですねー
情報幾何学は可視化の技術ではなく、多くの場合、測定誤差バイアスのような難しい統計学におけるパラメーター推定の為の関数を得るフレームワークというのが私の認識ですが、それ以外にも様々な応用がされてると思います
応用の部分をもっと知りたいのですがあまり時間がないので良かったら皆さんも勉強してみてその辺教えて頂けませんか?^^ >>888
パラメーター推定の為の関数を得るフレームワーク
という認識は同じと思います。
xを入力してyが求まる関数をdeep learningで作って
(大量の猫画像から猫認識関数を作る)
それを逆にy=0のときのxを求める関数を使って生成するのがGAN敵対生成ネットだと思っています。
(出来上がった猫認識関数にランダムなグレー画像を入力すると猫の画像が生成される) 下手にnvidiaのtesla買うより、中古売りで7割方戻ってくるゲーミンググラボの方がマシ > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw >>891
もっと安いグラボかCPUのみで高速に動く方が価値は高い。 >>897
つまりどーゆうことだってばよ
簡単に計算できるモデルが優秀という意味? 同じ成果を出すモデルなら当然計算コストが低い方が優秀 特徴量が数万になるようなDL学習させようとしたらCPUじゃ無理でしょ 実はそのモデルの精度は線形モデルと有意差つかなかったりして...
ブートストラップ法とかでクロスバリエーションの精度の信頼区間を計るようになると現実を知って機械学習辞めたくなるw >>901
特徴量エンジニアリングでかなりいい線いければ。 >>902
それもうDL必要ないやんw
画像動画音声なら分かるけど >>901
データ数によっては、DLより単なる重回帰のほうが結果良かったりするのはしょっちゅうありますよ。
DLが役に立つのって非線形の
関係のときだけですね。
経済データいろいろやりましたけど
圧倒的に単なる重回帰が役立つと思います。 世の中の問題って圧倒的に非線形なんじゃないの?素人ですが 例えば適当にググったこのサイトの真ん中編の「応力とひずみ」の例で言うと
https://math-fun.net/20190619/1715/
力をかけてゆっくり歪んでる間は線形で
ビキッとヒビ行ったりズルっと滑ったりする瞬間の動きが非線形 非線形=線形でない
いわれて考えてみれば線形なんて理想論みたいなものでそれで済むのが稀な気
ある部分で線形だったり、線形で近似できたりはするんだろうが >>905
線形か非線形かが問題ではない
パラメトリックかノンパラメトリックかが問題
そしてノンパラメトリックは過学習が起きやすい
サンプルがめちゃくちゃ多いとき以外はクロスバリエーションでなんとかなるレベルじゃないのはバイアス-バリアンストレードオフの話を色々を調べればなんとなくそんな感じがする
画像映像音声のよくある問題はDLが今のところ圧倒的高精度だからその分野では有意差ついてそうとは思うけどもっと一般のデータマイニングでは有意差について慎重になるべきだな
一度でもいいから精度の信頼区間計ったらいいよ予想以上の結果で色々考えるのバカらしくなってくるから >>905
勿論そうだが実用上線形とみなして問題無いことも多い >>910
>>901
訂正
クロスバリデーションだったw >>905
本質は非線形でも線形近似で精度必要十分 >>910
すまんな、何言ってるか分からんw
出直してきます >>914
ここは数学スレだからDLユーザーの風潮に少し否定的というか懐疑的な見方をしてる人が多いだけ
あまり考え過ぎない方がいいかも ノンパラなデータをそのままライブラリにぶち込んでも
テストスコアだけが高い再現性のないモデルしか作れないのでは? > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw 仕事でPython書いてるんでプログラミングは問題無し。
さいきっとらーんは使える。
ただ数学がにがてで、
高校の数学が怪しいところからスタートして、
偏微分、行列計算くらいはわかるようになったんですが、
ここからあとなんの本やれば、パターン認識と機械学習に太刀打ちできるようになりますか?
何冊か教えてもらえると助かります! >>920
最初におもに勉強すること、教科書を決めてそれから必要な数学を探るほうがいい 数学科卒で大学院も数学で、プログラムはやらないけど基本情報、応用情報はもってるが
機械学習等が動かせばいいであれば中身の動作がどうなってるかを詳しく勉強することもないとおもうんだが
チュートリアルのみでも動かせるでしょ >>922
パンピーが老後の楽しみに数学書をじっくり楽しむとすれば、どんな分野がいいでしょうか?
数Vはなんとかわかります… 解析概論
現代数学概論
位相幾何学概論
数学の古典的名著だな
ググると今でも手に入るらしい 学術の巨大掲示板群 - アルファ・ラボ ttp://x0000.net
数学 物理学 化学 生物学 天文学 地理地学
IT 電子 工学 言語学 国語 方言 など
VM + ASM を書いた (C#, DX) * x86 ではない!
simulationライブラリで純粋な関数式プログラミングをする
UIライブラリ (C#, 2D) を作ったよ
連続と離散を統一した!
4Dエンジン
matrixのライブラリ
ある強力なFor関数
SQLライブラリ
VM + ASM のダウンロード
ttp://up.x0000.net/files/TSimulang.zip ディープラーニングの為の数学とあるが、DLに数学はいらんのでは?
数学や統計学が必要になるのは、DLが適切かも含めたモデリングの段階 >>930
いわゆる数学科で習うような数学ではないわな
数値計算アルゴリズムと言った方がいいと思う >>930
自分で計算できる必要はないけど
活性化関数見て、ああこんな感じの効果のある関数ねって理解したり
微分可能とは何かわかってoptimizerの説明みてこんなことやってるのねってわからなければ
ディープラーニングのライブラリの説明文読んでもわけわからんだろう ディープラーニング含めありとあらゆる計算は何らかの手順に従ってやってるだけだぞ 知ってるよ
手順を開発するのが楽しい
手順を(特に人力で)実行するのは楽しくない >>938
普通は○○の認識・検出などの精度を上げたい・新しく作りたいっていうのがあって
改善のためにいじるところが山ほど(ネットワークや損失関数、学習データなど)あって途方に暮れる場面の方が多いと思うけど
手順を実行するだけの状況ってどんなんだろう
授業で言われた通りに課題の学習組む感じ?そりゃつまんないわな >>938
気持ちはわかる
俺は同じ画像セットで延々とやってる
だが実際は人工知能の本質はむしろデータに内包された情報の構造にあるんじゃないかと思ってる
その辺研究やってる人いないっしょ・・・ ネットワークの組み方を少し探っていくと、
結局、人間はこう判断してる、だからこういうネットワークが有効なはずだ。
と人間観察がほとんどな気がしてる・・・
が、この解釈あってる? 近頃はcpuパワーを生かして
いろいろなパラメーターを乱数で振って
ものすごい試行回数を試して
一番いいのを選ぶんじゃないの?
数学の出る場面は? >>944
評価基準は決めなきゃいけないでしょ
二乗誤差を極小化するのか?
尤度を最大化するのか?
どれを利用すれば、データにどのような性質を、暗に仮定する事になるのか、数学的な理解を持たなければ、意味ある分析にならない >>943
だいたいあってる。そういう仮説をダラダラ語れた方が論文にしやすい
でも実際そういう仮説が当たってんのかどうかは不明
適当なネットワークでもそれなりに働くから >>944
ハイパーパラメータは乱数ってより総当たり全探索系
ネットワークの重みの最適化は勾配法の類
数学の出る場面は?って全てにおいて数学の計算やん
人間が計算するわけじゃなくてソフトがやるけど 人がチューニングしなければいけない工程はライブラリの発展で減ってってるから
中途半端な数学や統計の知識は不要になってるのは事実
しかし、現実の課題は、画像認識等の定型的なものばかりじゃないので、
機械学習できる段階まで落とし込む為に深い知識が必要 それは数学の知識というか
エンコーディングの知識だよね
抽象化するという意味では
ある意味数学でもあるけど どこを見ても学習に何日何時間かかったという肝心な情報が欠落している
どんな構成でも1月も回せば収束するがそれはその方法の正当性を示しているわけではない その方法の正当性とやらをなぜ全く無関係な学習時間で測れると思うのか
学習時間なんてマシン構成やライブラリ・フレームワークの向き不向きなどで何倍も変わり得る
客観的に正当性を測るには統計学に基づく方法でしかありえない 二日過ぎても九割にも達せず遅いと思い、こうすれば早いと改善を入れても変わらん
調べて見れば同じ構成ひと月が3週間になる改善か俺のやり方の方が早かったとあきれ果てる
早い遅いの基準があまりに主観的に書かれていると言いたいのである >>944
その勾配法勝手にユークリッド空間を仮定して単純化してない?
赤信号皆んなで渡れば怖くない、みたいな感じで。
勾配法をまともに使うにはリーマン幾何学とかフィッシャー情報なんかの大変な数学の知識がいるはずだけど > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw 通常の勾配法は確かに損失関数を減少させる
だがそれが最も下げる方向かというと、それはパラメーター空間がユークリッド空間で正規直交座標の時だけ。
だがパラメーター空間は一般の場合、ユークリッド空間ではない
では一般のパラメーター空間ではどうなるのか、その答えは自然勾配法によって得られ、これこそが真の最急降下法となる
下の論文には自然勾配を使うとディープラーニングの収束が1000倍早くなった例が記載されている
ではパラメーター空間とは何か?
まず、パラメーターを座標系とするリーマン空間の接空間に内積を導入する。この時"上手に"公理を満たす内積を定義すればリーマン計量はフィッシャー情報行列に一致し、
"非常に近い"2点間の距離がリーマン計量によって求められるようになる
これがパラメーター空間の幾何学の始まり
もっと言えば確率分布空間の幾何学とも言え、そこには双対平坦な微分幾何学という数学の大海原が広がる
統計的推論とは何か、これを知るためにははじめに多様体をよく知る必要がある
他にもフィッシャー情報行列を知るためには期待値計算が必要となり、その際、よく知られた分布での期待値計算の導出を参考にしたければ奇関数や偶関数の性質を知っておいた方が良い場合もある
大変な数学の知識が試される場面。
この分野に足を踏み入れれば自分の人生を破壊するかもしれない、従って利他性が試される
必要なのは頭の良さではない。難しい分野だから間違って解釈することもあるだろうが、十分な利他性があれば一定のレベルにまでは成し遂げられるはずだ
[参考]
https://www.jstage.jst.go.jp/article/sicejl1962/40/10/40_10_735/_pdf
https://repository.kulib.kyoto-u.ac.jp/dspace/bitstream/2433/110689/1/KJ00004454665.pdf 詳しく言うと、具体的な問題に対して計量を考えて問題を解くアルゴリズムはあるの? 今までだって何らかの根拠があってユークリッド空間で考えようと決めたはずなのだから
その根拠が揺らぐなら別のパラメータ空間を検討するのは自然だろう ところで「チンポがシコシコする」という日本語表現は、文法的に正しいのか?
チンポ「を」シコシコするのではなくて、チンポ「が」シコシコする。この場合、「チンポ」は主語となる。
オブジェクト指向で言う「集約」は2種類あって、全体(俺)と部分(チンポ)が繋がっている場合と、
全体(俺)と部分(チンポ)が別々になっている場合とが考えられる。けれども「チンポ」はそれ自体
が独立した生き物であり、所有者の意思とは無関係に、勃起して「シコシコする」。
例えば寝てる時にエロい夢みて朝起きてみたらチンコが勃起して射精してたとか。
違うか?
「胸がドキドキする」は良いが、「チンポがシコシコする」はダメな理由を、50字以内で述べろ! >>966
シコシコするってのはこするって意味なんだからチンポ単体では不可能
お前がどこかでたまたま見た間違った記述に拘っているだけ >>967
ドロップアウトの理論気になるな(゜ロ゜) 私立文系、数学の知識は中学レベルなんだけど、AIとかディープラーニングを操るにはどの数学の範囲やればいい? 実践で都度勉強すればいい。
中学レベル、三平方の定理や2次元方程式の解の公式を自分で導けるぐらいなら何とかなるよ。 最小二乗が前世代の目的関数で
ディープラーニングは目的関数を
自由に設定出来るのがウリと習った 非線形関数に変えただけじゃん。
人の脳を馬鹿にしてんのか? >>974
高校数学IIIと数学Cに大学の線形代数と統計 >>981
非ディープでも目的関数は自由に設定出来る >>985
そうなのか、詳しいな。
是非、こしあん氏を超える薄い本を
記述してBOOTHに委託してくれ。
絶対に買うから
OpenVinoも資料が少なくて困っとります
そちらでもOK
よろぴく 目的関数は単に正解への近さをどう測るかを決めるだけのものなのでいつでも好きに設定すればいい 相変わらずにバカしかいないなwww
らだの関数も理解できないとは…。
小学校からやり直したら? お前ら深層学習で何ができるか、考えたことある?
教師アリ、教師、その他の手法。 皆あの子を好きだけど、あの子が好きなのは私だけ
って歌詞は論理的に考えると あの子=私
皆にはあの子も含まれるから 皆(代)
大勢の相手をさし示す語。みんな。 「 −どう思う」 クリフォード・ストールの「カッコウはコンピュータに卵を産む」
ネタだ >>992
純粋に論理的に考えると世の中の言動全てが非論理的と分かって気が狂いそうになる > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw TensorFlowの勉強を始めました。
皆さんはどうやって勉強されてますか?
YouTubeの動画ですか?
良い勉強法があれば教えてください。
よろしくお願いいたします。 このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 544日 2時間 52分 47秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。