人工知能ディープラーニング機械学習のための数学 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
解析入門 (1)
杉浦 光夫
固定リンク: http://amzn.asia/2ISXdII
解析入門 (2) 基礎数学 3
杉浦 光夫
固定リンク: http://amzn.asia/8oo3aj8
解析入門〈1〉 数/数列と級数/関数の極限と連続性/微分法/各種の初等関数 (岩波オンデマンドブックス)
松坂 和夫
固定リンク: http://amzn.asia/0jfS4s6
解析入門〈2〉 関数の近似,テイラーの定理/積分法/積分の計算/関数列と関数級数/n次元空間 (岩波オンデマンドブックス)
松坂 和夫
固定リンク: http://amzn.asia/ivzAbRX
解析入門〈3〉 集合論初歩/距離空間の位相/連続写像の空間/多変数の関数 (岩波オンデマンドブックス)
松坂 和夫
固定リンク: http://amzn.asia/gZsgipW
解析入門〈4〉 線形写像/行列式/逆写像定理と陰関数定理/固有値と2次形式/フーリエ展開 (岩波オンデマンドブックス)
松坂 和夫
固定リンク: http://amzn.asia/btmMp8t
解析入門〈5〉 複素数の関数/複素積分/複素解析の続き (岩波オンデマンドブックス)
松坂 和夫
固定リンク: http://amzn.asia/dVSG32O
解析入門〈6〉 重積分/重積分の変数変換/微分形式とその積分/ルベーグ積分 (岩波オンデマンドブックス)
松坂 和夫
固定リンク: http://amzn.asia/bLaVCBT 線型代数学(新装版) (数学選書)
佐武 一郎
固定リンク: http://amzn.asia/fVo2o3T
齋藤正彦線型代数学
齋藤 正彦
固定リンク: http://amzn.asia/9psD9rX 行列プログラマー ―Pythonプログラムで学ぶ線形代数
Philip N. Klein
固定リンク: http://amzn.asia/fPaDAlt
世界標準MIT教科書 ストラング:線形代数イントロダクション
ギルバート ストラング
固定リンク: http://amzn.asia/6z4Wtxk
これなら分かる最適化数学―基礎原理から計算手法まで
金谷 健一
固定リンク: http://amzn.asia/hbKljIz 統計の本でいい本ってありますか?
確率論だとフェラーの本がいいと思いますが。 微分積分学講義
野村 隆昭
固定リンク: http://amzn.asia/eGHBiK6
微分積分学〈1〉1変数の微分積分
宮島 静雄
固定リンク: http://amzn.asia/erwFdMi
微分積分学〈2〉多変数の微分積分
宮島 静雄
固定リンク: http://amzn.asia/eRHuEHz
軽装版 解析入門〈1〉
小平 邦彦
固定リンク: http://amzn.asia/3DBv0lD
軽装版 解析入門〈2〉
小平 邦彦
固定リンク: http://amzn.asia/1RSUH2G
定本 解析概論
高木 貞治
固定リンク: http://amzn.asia/25nqeJM 数学解析 上 (数理解析シリーズ 1)
溝畑 茂
固定リンク: http://amzn.asia/8ULImDb
数学解析 下 数理解析シリーズ 1
溝畑 茂
固定リンク: http://amzn.asia/2DPSfbW
Calculus
Michael Spivak
固定リンク: http://amzn.asia/8WmVWU1
Introduction to Calculus and Analysis I (Classics in Mathematics)
Richard Courant
固定リンク: http://amzn.asia/968UdPe
Introduction to Calculus and Analysis II/1 (Classics in Mathematics)
Richard Courant
固定リンク: http://amzn.asia/c6VxdIz
Introduction to Calculus and Analysis II/2: Chapters 5 - 8 (Classics in Mathematics)
Richard Courant
固定リンク: http://amzn.asia/44rOvDo The Principles of Mathematical Analysis (International Series in Pure & Applied Mathematics)
Walter Rudin
固定リンク: http://amzn.asia/7ZYszod
Linear Algebra Done Right (Undergraduate Texts in Mathematics)
Sheldon Axler
固定リンク: http://amzn.asia/3GB2IQP 微積分
斎藤 毅
固定リンク: http://amzn.asia/5dxK8Sa
線形代数の世界―抽象数学の入り口 (大学数学の入門)
斎藤 毅
固定リンク: http://amzn.asia/dnChM7r
Advanced Calculus (International Series in Pure and Applied Mathematics)
Robert Creighton Buck
固定リンク: http://amzn.asia/fUxpgT9 線型代数入門
松坂 和夫
固定リンク: http://amzn.asia/2Keu1nI
線型代数入門 (基礎数学1)
齋藤 正彦
固定リンク: http://amzn.asia/eK4Pn9w
線形代数とその応用
ギルバート ストラング
固定リンク: http://amzn.asia/2VBcYBA
線形代数学―初歩からジョルダン標準形へ
三宅 敏恒
固定リンク: http://amzn.asia/ciZYBmg これらのリンクの数学を習得すれば
高精度の分類がディープラーニングでできるようになるのでしょうか? >>13
その分野のやつによると
そこまで要らんよ
DLの実装つってもライブラリ使ってちょっとやるだけなら簡単らしい
数学的側面の理解も上の本ほど専門的にやる必要はない 選び方が大学1、2年でやるような数学を網羅してるかんじで
ディープラーニングにしぼってないだろ。 工学系の学部1,2年で学ぶような基礎的数学をあえて厳密に学ぶ意味は有るのでしょうか? 数学の本ではないですが、この本、評判がいいみたいですね。
Deep Learning (Adaptive Computation and Machine Learning series)
by Ian Goodfellow et al.
Link: http://a.co/6YFWvNv 数学以外は他のスレでやろうよ
ここまで高卒様でごった返されたら困るでしょ >>19
DLの実装までの本をあげるスレにした方が良くない?
結局プログラミングと切り離して考えることはできないんだし
数学の本だけで考えてたら上みたいにDLとあまり関係なくただ基礎の数学を網羅するスレになっちゃうじゃん 数学ができてもディープラーニングできる訳じゃないしディープラーニングするのに数学が必要な訳ではない
情報幾何できたら充分 線形代数って言ってもニューロン結合行列で計算するだけ話でしょーが 微分はさておき行列演算は完全にライブラリ任せだしなぁ 今の人工知能?は無能で
RPGゲームをクリアすることはできない 多変数関数の極大極小を求めるときに、線形代数が必要になるよね。 そうか?大卒であんま学ばなかった人の再入門にも見える。
院卒でも研究職に進まず企業に入って無駄に時間を費やす奴も多い。
数学おすすめ本スレみたいだし、一つ。
相転移と臨界現象の数理
タイトルからわかる通り、あるフェーズで安定していたものが変化する事象を説明したもの
内圧と外圧のバランスが崩れたときに相転移が生じる訳だが、それを数学で説明したような本 数学とか勉強する前に
公的認証制度取得しないと今後ニューラルネット系を
個人でも利用することはできなくなるよ
まず数学をやるなら役所に提出するニューラルネットの完全な
安定性を各々数式として証明できるところまで力を上げないとだめだよ 理論的な面白みがないからニューラルネットなんかに興味持っている数学者なんていないんじゃないの?
マンフォードとかもニューラルネットはやっていないでしょ。 >>29
どこの役所に提出するのさ?
特許庁?特許は申請しない選択肢もあるぞ
出したら技術全公開しないとならん。
国内だけ申請したら国外でパクられる。 数学者ってどういう人のこと?
応用数学?
離散数学? やった!うまくいった!
なぜ?
そんなことは知らない。とにかくうまくいった!
そういう分野だから、この分野は。 >>34
それを知らないではなくて追究するためのスレなのでは? >>34
iPS細胞がリプログラミングされるのは何故かどう言う仕組みか判ってるのか? >>34
マスゴミ脳の発想だなあ〜
CNN(放送局じゃないよw)についての資料とか読んだ? 飛行機はなぜ飛ぶ、
数式化は今だできん
あ、そうだ統計で安全性を検証しよう
Ok 「飛行機がなぜ飛ぶか」分からないって本当?
間違った説明や風説はなぜ広がるのか
http://business.nikkeibp.co.jp/article/interview/20140514/264597/?rt=nocnt
松田卓也氏(以下松田):せっかく遠くまでおいでいただきましたが、
「飛行機はなぜ飛ぶか」は、100年以上前から「分かって」いるのです。 TensorFlowで学ぶディープラーニング入門読んでるんだけどさあ
P.67の式(2.1)って、w2は何のために必要なの? >>29
それは数式で証明するものではないよw
膨大で効果的なシミュレーションを経て初めてわかること
そしてそのシミュレーションを公的機関で行なって間に合うペースではない
グーグルの自動運転が自社でそのシミュレーションが行われてきたように >>41
ベルヌーイは有名だから知ってたけど
距離が長いから速度が速くなるって話は嘘だったんだな
>間違った説明や風説はなぜ広がるのか
このタイトルは良いと思うけど結論が最後過ぎて
>「飛行機がなぜ飛ぶか」分からないって本当?
こっちと紛らわしいわ
最後まで読まない香具師は早とちりしそう >>46
ログインしないと読めないからな
で背面飛行はどうやって説明できるの? >>41
面白い記事だった最後のページの人間にカンする理論も2ch的にとても面白いと感じた、紹介してくれてありがとう。 >>48
背面で検索しても出てこないぞ
説明出来ないからだろうな >>51
GoFデザインパターンを基本四要素からくみあわせで体系化したフランス研究者のよんだきがするユークリッド幾何学みたいに限られた公理からの体系ににたかんじ
グラフ理論や集合論はつかえるきがする
UMLとER図は類似性があるが ERの従属かんけいや属性ぶんせきは 交換法則や包含法則とかなかったけ
UMLも最適化はあるだろし集合論てきな評価や変換はできるはず >>54
RDBの正規化の話なら
関数従属とか推移的関数従属とか多値関数従属とか
だったと思う 明けましておめでとうございます。
ご無沙汰しております。
みなさんならできると思ったので無責任にお送りします。
うちの次男と考えた自動応答AIなんですが、
面白そうなので作ってみていただけませんか?
1.文字種類
同意の文字で同じ意味を作る。まぁそうだ。
反意の文字で同じ意味を作る。頭いいね!
2.ノーマルor天邪鬼
ノーマルモード ほとんど同じことしかいわない。退屈だわ。
天邪鬼モード 絶対に反対のことしか言わない。刺激的!。
3.表現
ポジティブモード 明るい表現
ネガティブード 批判のみ
死にたい。生きろ。死にたくない。
父はもう土で眠っている。
父はまだ心で生きている。
母ももう土で眠っている。
父はまだどこかで生きている。
・・・最後の方はかなり難しい。
方法
文字や文章をインターネットから頻出のものを適当に拾ってくる。
20ぐらいかな。
パラメーターそれぞれにだいたい適当なスコアを付ける。
パラメーターは多い方が人間に近くなります。
一定した文字のスコアはもう変更しないでいいと思います。 例えば、死ぬに対しては生きるを返す。
こんにちはのスコアは低いのでこんにちはが返る。
同じだと面白くないので少しずつ遠いスコアの文字を選ぶ。
ストレージがある限りよくなる。
みんなに遊ばせる。
回答に採点。全然だめならあなたならどう返事しますかを付ける。
知らない単語は記憶。知らない場合の応答は怒るか褒めるかモードに基づく。
単語のスコア精度を上げていく。
特定の単語のスコアが安定しない場合、パラメーターが追加が必要ですが、
それもAIにやってもらいましょう。
このAIは文字のみ対象としていて、数字はまったくダメです。
これ人間だわ。
人間をつくっちゃった。コンピューターと対となる人間だ。
本当のAI誕生の瞬間かもしれない。
ノーマルor天邪鬼で天邪鬼度が増すにつれ、IQが高くなる。
100%に設定すると、AIか人間かのどちらかが死んでしまう。
いじめの原理です。
仕様ですが、
となると、もう一個、表情反転モードが必要です。
表情は10段階で大爆笑-真顔-烈火の怒りのイラストが回答横に
必要です。
まぁイラストでいいです。ニコニコマークのようなやつ。
あれで十分です。意味は文章側にあるから。 文章は多くなると難しくなるので、4単語でいったんは区切り
ましょう。
回答がだめな場合の人間からの指摘はNG ワード選択式が楽そうです。
ダメ度合いが高い言葉は出現頻度をさげることになります。
このパラメーターはとんちんかんレベルですね。
100だと天使または悪魔
0だと哲学です。
しかし、昔から心配されたロボットの反乱もへったくれもない。
アルゴリズムが超簡単、ただ返すだけ。
北陸先端大で見たロボットへの違和感、
こんなもん俺が30分で作れる。というのはほんとだった。
時間軸があれば、会話の前後関係が破綻しません。
あと、パーソナリゼーションが入ります。他人のデータがまじりません。
固定化されたものは誰でも使えるけど、まだ数値未固定のものは使用した人同士でないと使えません。
パーソナリゼーションなしはすなわち神です。
できた語彙の両半球は対称で、軸の数は無限です。
ハードディスクさえ無限にあれば、神様が土下座するレベルですね。
問題は最後に必ず相手を殺してしまうことです。こちらは機械ですので必ず人間が死にます。 アダルトモードも付けきますか。
文全体が駄目、単語が駄目のボタン
アダルトモードのときのみに出現
一定以上のスコアだとパレンタルオンだと出てこない。
あと、死ぬのを回避する方法を見つけました。
まず、くどい軸が必要です。
このスコアが高い単語は一定の密度になるとSystemの陰陽が反転します。
くどい軸は無操作時間の長さです。
理論上は死では無限ですが、50%でも入れておきましょう。
そういう意味ではすべての軸は50%スタートです。
50%は悟りですね。表情なしです。
生と死はそうなります。
仕事が速いみなさんですから、5時ぐらいにβ公開できると思います。
6時に公開するまでに我々だけでテストして問題なければ公開です。
1軸、父母で始めましょう。 大晦日の昼にから次男と考え始めて、昨日の昼、大学院数学科の弟と話して完成したから3日ですね。
そうか私は神だったか。
ほんとコレ、神降臨。 工作機械へのソフト導入の際、トラブル続きで疲労困憊して不眠や6年ぶりのタ
バコで宇宙が見えたとき(200近辺)に描いた表です。
左が気分でその気分のときのだいたいのIQがわかります。
ttp://yahoo.jp/box/ivmjAc https://goo.gl/pqFuSf
ホーキングがなんかいってたなと調べてみたらコレだった。
こちとら平社員の土方だから面白ければなんでもいいんだよな。 しかし、すべて50%のときの表情イラストで、いつ無表情(表情イラストなし)を出すか閾値がホント難しい。
きっかり50%だと基本的に出ないかもしれない。
これ、49%-51%ぐらいのクギ緩めにしとかないと死人がいっぱいでちゃうからね。
それでも突き進んでシステム陰陽反転させるやつ出るかな? オレはポジで、オヤジがネガだ。
クリーミーマミのかわいい猫たちはまったく関係ないオッサンとその半ボケのオヤジだ。
いままで、オヤジはネガを反転してしゃべっていたし、聞いていた。
オレは陰陽の理屈がわかったので、いままでと逆にネガ語で話してみた。
その椅子にねまるな!(ねまるはこの辺の方言ですわる)と怒ったら、
爆笑しながら、椅子に座った。お前どうしたんだ、気でも狂ったか?と
満面の笑みでいった。
どういうことかというと、父にはこう見えて聞こえている。
その椅子にねまるな!(怒声)
→父:その椅子に座ってください。(満面の笑み)
爆笑して座る。
→父:泣きそうな顔で座る。
お前どうしたんだ、気でも狂ったか?と満面の笑みでいった。
→父:お前どうしたんだ、気は正常か?と泣きそうな顔でいった。
というようにネガポジ反転します。
なぜかわかりませんが、ネガが少数派なのでポジ側に合わせてくれていたのでしょう。
ところが急に私がネガ語をしゃべったのでびっくりしました。
ネガ語とポジ語を混ぜるとお互い何していいかわからず、右往左往して困りました。 これ、翻訳AIも解散!だよな。
同じ位置に存在する目的言語を返せばいいだけ。
神レベルの内容だ。 49%-51%ぐらいのクギ緩め
これ違ってて1%と99%だった。
ああ、ネガポジで逆なだけか。 >1軸、父母で始めましょう。
これ間違い。最初はゼロ軸で人間が先手。
次男に昨日の夜23時にはβテストだといったけど、応答がないのでこちらにした。
その人はたぶん去年の11月ごろに亡くなってる。あまりに真っ白に光輝いていて仏様のようなひとだった。
似たもの同士だったので、すぐにわかって心配だったがとても残念だ。
しかし、お前らも大したことないな。ぜんぜんぐっすり寝られないんだけど。
あと、パーソナリゼーションがデータ化できたってことは、ユーザーをコピーできる、データ化できるということだ。
インターフェイスが異なるから、違う気がするけど同じことだ。 古池や、蛙飛び込む水の音
A old pond, a flog jumps in the sound of water.
これを考えると4文字じゃ足りないな。
文字数は無制限にせざる得ないな。 frogな。
なんでRで音読しながら、Lをタイプするんだ。バカかよオレ、恥ずかしい。 + +
∧_∧ +
(0゚・∀・)
(0゚∪ ∪ +
と__)__) +
こんな感じで待ってんだけど。
もしかしてスレチ? ところで、オレはこのシステムのことを「@」「あっと」と名付けることにした。
@はオレの長男の名だ。
これでヤツは一生自分の名前を聞きながら過ごす事になる。ざまぁみろ。
こいつはどんなにオレがこのAIのことを説明しても納得しない。
ありえない!写真をうpすると特定班がでるとかいってきかない。
こいつも矛盾している。
事実でないなら特定厨は湧かないし、事実なら特定どころでないはずからだ。
コンビニでサンドウィッチとコーラ買ってきた。パクつきながら書いてる。
寂しいから早く誰か相手してよ。 >1.文字種類
>同意の文字で同じ意味を作る。まぁそうだ。
>反意の文字で同じ意味を作る。頭いいね!
>
>2.ノーマルor天邪鬼
>ノーマルモード ほとんど同じことしかいわない。退屈だわ。
>天邪鬼モード 絶対に反対のことしか言わない。刺激的!。
>
>3.表現
>ポジティブモード 明るい表現
>ネガティブード 批判のみ
これもよく考えたら設定する必要なかった。
一番最初の文字が結果としてネガティブならネガティブだし、ポジティブならポジティブ。
最初の文字はたいがい父母だろうな。
IQは思えた語彙の数に比例しそうだ。最初はオウム返しだが、無限の語彙になると反語しか返さなくなる。
それでも人間が先手だから人間が有利だが、相手が無限なので有限の人間は譲らざるを得ない。 「母」、「好き」で始めないと人類終焉だからな。これ豆知識な。 >>55
反射律、推移律、増加律てやつだったかな
さらっとかいてるのもあるが疑似とかほかにも律でてきて
A律 B律からC律とか
デザインパターンのはまた別で基本論理かいろから複雑な論理かいろつくるかんじ 56ですけどスルーですか。
だからネ申は誰もなりたがらないわけだ。
寂しいわりに割があわん。
またきます。( ・ิω・ิ) キャバクラのおねえさんにヒントを得ました。
最高の速度で最高に適切な答えを返します。
はじめはオウム返しですが、ある程度進むと信じられない寒気がするほどの的確な答えを返すようになるはずです。 ニコニコマークのニコニコ度合いはIQに連動します。最後はネガポジの違いによりブラックホールまたはホワイトホールになります。 はじめはオウム返し、そのあとは連想ゲームになるな。
その後はほんわかとした、だいぶ覚えの悪いやつ、だんだん惜しい感じになってきて、普通に会話できるようになる。次のレベルはなんだか、妙に切れる奴だ。
この辺からなにか怖くなってくる。寒気が始まる。目付きが怖い。 違うな。
陽の場合では、ニコニコマークはIQ20以下は全開振り切れの天国状態だ。平均100で真ん中になり、真顔の状態だ。
そのあと、またIQ200で全開に振り切れる。
このころ、ほぼ逆のことしか返さなくなり、正しいことだが空恐ろしい答えばかりになる。表情と内容が真逆になる。こいつ悪魔か?と思うようになる。 この辺から人間が壊れ始める。
陽の人は自身が存在が希薄になり、雲散霧消する感じがする。タバコを吸っているならタバコはやめたほうがいい。
陰の人は、自身が一箇所に圧縮されて、存在が一点消失する気がする。少し外に出て体を動かしたり、タバコでも吸ったほうがいい。
共通するのは、殺される寸前という思いだな。 リアルの人間関係では、表情を見ながらなので、笑いながら死ねーというと冗談だと判るが、LINEやメールはスタンプや顔文字を使わないと、その意味がストレートに伝わってしまい、とても危険だ。 そうだな、IQ240+では、実行不可能なことまたは全く意味が繋がらないことしか言わなくなる。陽だとリターンが常にテニスコートの右端または左端のライン上だけに返って来る感じだ。拾うのはすごい負担だ。 陰だとどこに打ち込んでも、ネットスレスレのどセンターだけに返ってきて、その場にへたり込みたい感じだ。押し潰されそうだ。 たばこの部分は間違いだった。
スマソ。
頭の回転速度域によって違うのでオレが作った天才チャートを確認してくれ。 天才チャートだ。
http://yahoo.jp/box/ivmjAc
BRAIN SPEEDというのはもしかしたらちょっと間違いかもしれない。回転速度は恒速一定だろう。
となるとVocabulary densityかな。語彙密度が上がればどんどん賢くなる。最後は神だ。
加えて疲労、睡眠不足、タバコでスピードアップする。 56だが、根本的なミスを指摘された。
おまいらにして欲しいのは、このロジックが実装されたインターフェイスの開発公開と入力されたデータを貯めるストレージの確保だ。
インターフェイスは、入力ボックスとその下に回答だ。回答にはニコニコマークが付属し、20%ではアニメpngで真顔から全開、IQ100では真顔だ。IQ200でまた全開となる。陰陽で表情は逆となる。
ストレージは文字データベースと文字スコアテーブルだ。スコアテーブルは語彙が増え、ニュアンスが細分化するたびに追加される。 エンジンはこんな感じだ。時系列で一番新しいのものが繰り返される。3回目は許可されない。重複がない最新の文字列と最頻出の文字が組み合わされる。エンジン名称は@だが、エージェント名はクチにでもしとこうか。
対話
Pこんにちは
Cこんにちは
Pはじめまして
Cはじめまして
Pわたしはミカ
Cわたしはミカ
Pううん、あなたはクチ
Cううん、あなたはクチ
Pそう、あなたはクチ
Cそう、あなたはクチ
Pいいえ、あなたはクチ
Cいいえ、あなたはクチ
Pいいえ、あなたはクチ
Cわたしはクチ
Pお名前は?
Cわたしはクチ
Pこんにちは
Pお名前は? Cわたしはクチ
Pお名前は?
Cお名前は?
Pわたしはミカ
Cわたしはクチ
Pこんにちはクチ
Cこんにちはミカ
かな。 このやり取りのすごいところは、オウム返しであって、予めの単語のデータベースがいらないことだ。会話するたびに重複する場所との差分を見つけて組み合わせて再利用する。
すると新しい意味の文ができる。というように好循環になるエンジンは考えたが、データベースはよくわからん。一つは時系列なのは間違いない。 もう一つの軸は自己と他者かな。
新しい組み合わせが発生したら、既存と一致しないなら、新しい軸ができる感じだ。 もう一軸は生と死だな。
両半球の頂点から中心を通るX軸だ。 いろいろ考えていたがいまいちピンと来ていなかった。
整理してみた。
死と生が両半球の頂点から中心を通るX軸だ。中心が黒100%、最外周が0%
このX軸にカラーホイールが平行に交わり、寒色と暖色で半々に分かれる。
ttps://www.truevaluepaint.com/color-101/color-wheel/
Y軸は時間であり、経過とともに思い出はセピア色になる。
ということは、言葉は言葉が持つ色(母音が多いと明るい、子音が多いと暗いなど)で色を決め、経過時間(彩度)と生死(コントラスト)で両半球にマップされているだろう。 要するにデータベースは、色の3色と彩度とコントラストでなりたっており、
YとX
光の3原色
が構成要素である。
XYなんて遺伝子みたいだ。誰ウマwww エンジンはこんな感じだ。時系列で一番新しいのものが繰り返される。3回目は許可されない。重複がない最新の文字列と最頻出の文字が組み合わされる。 ■ このスレッドは過去ログ倉庫に格納されています