【統計分析】機械学習・データマイニング20

■ このスレッドは過去ログ倉庫に格納されています
2018/08/07(火) 18:56:37.59ID:sGPH9ejna
機械学習とデータマイニングについて何でもいいので語れ若人

※ワッチョイだよん

次スレ立ての際は、一行目冒頭に
!extend:on:vvvvv:1000:512つけてね

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング19
http://mevius.2ch.net/test/read.cgi/tech/1520586585/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured
557デフォルトの名無しさん (ワッチョイ c252-Mczu)
垢版 |
2018/09/24(月) 16:12:04.69ID:6L+7kJR10
>>552
カプセルネットワークの手法だと
各層で獲得した特徴同士の空間的相対位置は正確になるけれど
それでは汎用性がない
脳は空間的相対位置を崩す事もできる

これは記憶している各時間情報を参照して相対位置すら入れ替え可能だからできる
注目した部分の特徴だけを切り取って、別物として貼り付けるのではなく
一定の連続的時間情報部分を切り取って、その部分の特徴を別の連続した時間情報の一部分をキーとして
完全に連結させることができる
だから本当の汎用性を獲得するためには、時間情報の連続的把握が絶対に必要になる

>>553
マルコフ性はこの場合適さない
何故ならば、脳と同様の構造を獲得するためには
過去、現在、未来すべての情報を参照する必要性があるから
2018/09/24(月) 16:27:32.53ID:5edCpy4L0
過去・現在・未来の区別は単なる幻想にすぎない アインシュタイン
559デフォルトの名無しさん (エムゾネ FF62-wH+P)
垢版 |
2018/09/24(月) 17:28:14.05ID:Kttr1loZF
そうやね
560デフォルトの名無しさん (アウアウエー Sa4a-nL3Z)
垢版 |
2018/09/24(月) 18:08:33.46ID:G1aPepRna
>>558
マルコフ連鎖的なレスやな
2018/09/24(月) 18:51:54.57ID:FnEn+Nhsa
>>557
解き方知ってるんじゃないの? 自分で論文を書いた方が早いのでは。
562デフォルトの名無しさん (ワッチョイ c980-yqSl)
垢版 |
2018/09/24(月) 19:11:49.55ID:Kxio7RVg0
https://qph.fs.quoracdn.net/main-qimg-f5ea2024de1c0fc8c5b0830450deba7e
2018/09/24(月) 21:11:14.88ID:gWQCW5YD0
隠れマルコフモデルを覚える前にマルコフモデルを覚えましょう。
2018/09/24(月) 21:12:22.33ID:gWQCW5YD0
ついでに言うとウィナー過程とマルチンゲールも知っとけ
565デフォルトの名無しさん (ワッチョイ c980-yqSl)
垢版 |
2018/09/24(月) 21:12:23.12ID:Kxio7RVg0
じゃあ待ち行列の勉強から
2018/09/24(月) 21:42:12.44ID:lJZK7+QF0
連休に行楽地へ行って体験しよう
567デフォルトの名無しさん (アウアウエー Sa4a-nL3Z)
垢版 |
2018/09/24(月) 22:10:45.88ID:G1aPepRna
>>556
どっちも使った事なさそう
2018/09/24(月) 23:18:47.49ID:OwMqA+EG0
初歩的な質問なんだけど、tensorflowやkeras、pytorchの違いは文法的な作法だけ?
機械学習の本1冊目だけど実践しながら読み終えて完全に理解はしてないけど深層学習も興味あるしやってみたいなと思うんだけど、みんながフレームワーク選ぶ基準教えてほしい
2018/09/25(火) 00:45:33.33ID:G04XkrxS0
・define and runとdefine by run、まあこの違いはなくなりつつある
・分野によって使われやすいのが違う気がする、arXivみてそんな気がしてるだけで統計とかはないけど
570デフォルトの名無しさん (ワッチョイ c252-Mczu)
垢版 |
2018/09/25(火) 01:01:38.10ID:Rmy45yvb0
>>561
論文を書くためには結果が必要だけど
この手法は脳の構造模倣だけに凄まじい量のデータが必要になるのは明白
つまり現実的には、この畳込みモデルを適用したGANも組み込む必要があって
作業量的にも計算量的にも個人ではまず無理
2018/09/25(火) 03:35:03.53ID:LXnmrKE+0
割込も体験するべき
2018/09/25(火) 04:07:52.14ID:IDRi2Kjza
>>570
仮に他人の論文があっても実現はできないと言ってるように聞こえる。
個人でできる範囲で成果を取った方が有益かもね。
2018/09/25(火) 14:23:16.83ID:NL395plNa
回帰における学習でデータ正規化を行った上で得られたモデルを使う場合は学習時の正規化で使った平均・標準偏差を使って入力値を変換しなければいけないと思うんだけど、
scikit-learnの使い方紹介記事とか読むとtrain_test_splitで訓練・テストデータ分離して各々別々にfit_transformで正規化している記事が大半で訓練・テストデータが異なる値で正規化されてしまうことになる
これは訓練・テストデータが大量にあればどうせ平均・標準偏差は変わらないだろうというだけの認識でいいの?
2018/09/25(火) 17:49:12.68ID:kAi0n2pKa
ごめん、見た記事では多分最初だけfit_transformして次では単にtransformしてたっぽい
それなら何の問題もないな
575デフォルトの名無しさん (アウアウエー Sa4a-3cGd)
垢版 |
2018/09/25(火) 18:05:19.79ID:MY+XQBfWa
>>570
相対性理論とか実証は別の人がやることだってあり得る
論文を出すのはできるんじゃね
それが認められるかどうかは内容次第だし
本当に有益ならリソースを持つ組織が実証するし
必要ならその組織に所属すればいいだけ
576デフォルトの名無しさん (アウアウエー Sa4a-3cGd)
垢版 |
2018/09/25(火) 18:09:03.58ID:MY+XQBfWa
>>573
実際に応用として使用する時に上手く行くかどうかじゃね?
学習に使うサンプルが偏ってたらその値を使って正規化すると
実際に使うときに期待する結果にならないんじゃね?

期待する結果に有意差がなければどっちでも良いんじゃないの?
577デフォルトの名無しさん (ササクッテロ Sp71-/e2F)
垢版 |
2018/09/25(火) 22:06:17.44ID:niBQlr5vp
最近回帰問題解くのがキツすぎて無理やり0〜1に正規化して分類みたいにやるのがいい気がしてきた
2018/09/25(火) 22:39:44.81ID:u+oxJT9H0
>>577
層を厚くすればなんとかなるんじゃないの?
2018/09/26(水) 00:52:49.34ID:OKJKpWkba
そろそろ PyTorch が無視できなくなってきたな つ
https://www.kdnuggets.com/2018/09/deep-learning-framework-power-scores-2018.html
2018/09/26(水) 08:37:33.11ID:SJU9UbCQM
画像データを分類して教師データを作ろうとしてるんだけど、荒くでいいから自動で分類してくれるソフトないかな。
2018/09/26(水) 10:44:59.92ID:3yW6iUgn0
SOM
582デフォルトの名無しさん (ササクッテロル Sp71-/e2F)
垢版 |
2018/09/26(水) 11:01:18.29ID:UoU/Uwygp
>>578
わからないです
画像の生成モデルで出てきた問題みたいに支配的な領域に適合して細かい構造を予測できないので、分類にしてダイス係数を使おうかと考えていました
2018/09/26(水) 12:18:49.20ID:5WxjrnKia
>>580
自動分類できないから機械学習使おうとしてるのにその前に自動分類してくれとは
2018/09/26(水) 13:07:40.99ID:SJU9UbCQM
>>583
最終的には自分で見なきゃいけないのは承知してるんだけど、荒く自動分類した後に人が修正って考えてます。

何とか教師データの作成を楽したい。
2018/09/26(水) 13:09:08.33ID:SJU9UbCQM
>>581
ちょっと調べてみます。
2018/09/26(水) 14:20:02.13ID:iQ/1ta8NM
>>584
qtクラスタリングとかどうよ?
2018/09/26(水) 14:48:10.49ID:nIEdWeYp0
画像にキャプション付けてくれるサービス探したらありそうだけど
2018/09/26(水) 17:42:13.90ID:/NSmYwyE0
googleが人間にゴリラってタグ付けてたの思い出した
2018/09/26(水) 18:41:51.88ID:IVfMWxLtM
>>588
当欠だな
2018/09/26(水) 18:42:16.88ID:IVfMWxLtM
s/当欠/凍結/
591デフォルトの名無しさん (ワッチョイ c923-Czqz)
垢版 |
2018/09/26(水) 23:13:11.78ID:Lv/+nPmY0
あの画像なら人間でも間違えるから仕方ない
2018/09/26(水) 23:34:16.52ID:KPLU+0tA0
SVCのモデルを作る時にMinMaxscalerでスケール変換して、GridSearchCVでインスタンス作って、それに対してスケール変換した訓練データを使って学習させるって事をやったんだけど、これはダメらしいんだけど前処理の前に交差検証しろっていうのがよく分からない。

交差検証の過程では分割されたデータの一部が訓練用、残りがテスト用になって、訓練用となった部分を用いてモデルを学習させて、テスト用はモデルに対しての評価に使われる。
ここまでは大体分かる

しかし実はスケール変換する際にテスト用となった部分に含まれてる情報を使ってしまってる。
このようなデータはモデルに対してまったく新しいデータとは本質的に異なる。
???訓練用の一部がテスト用になるから??
2018/09/27(木) 09:27:07.99ID:sw1sA5ZZ0
>>592
スケール変換の際にテストデータの情報を使ってしまったら、そのテストデータは「まったく新しいデータ」とは言えない。
2018/09/27(木) 11:10:18.48ID:TDX1lgSt0
qiitaは機械学習の良い記事があっても全然ランキング入らなくなったな
ニワカが飽きたのか
595デフォルトの名無しさん (ブーイモ MMbf-wjEJ)
垢版 |
2018/09/27(木) 11:20:21.49ID:je3kizhWM
>>568
pythonはプログラム言語でtensorflowやkerasは効率よく機械学習するためのライブラリ。
2018/09/27(木) 12:14:59.19ID:PZBFougTa
>>594
それならいい記事見つけたらここにでもURL貼ってほしい
qiitaはタイムラインから良記事探すのが難しい
2018/09/27(木) 22:08:27.94ID:wuMHpvCna
>>594
飽きたというよりも具体的な恩恵が得られないからモチベーションが続かないのでしょう
趣味でやっている人たちばかりじゃないから
598デフォルトの名無しさん (ワッチョイ 5723-qD32)
垢版 |
2018/09/27(木) 22:17:45.69ID:JFP1gXlP0
英語で検索した方が有用な情報多いよ
2018/09/28(金) 00:38:02.48ID:ofrlpy9E0
いいね!稼ぎじゃはてな民くらいしか喜ばないしねぇ
2018/09/28(金) 03:48:20.58ID:tygoHNB90
確かにQiitaは最近いいね減ったな
601デフォルトの名無しさん (ワッチョイ ff81-wjEJ)
垢版 |
2018/09/28(金) 05:57:58.09ID:f7OuEx/00
aidemyとpyqどっちで勉強したらいいですか?
2018/09/28(金) 08:06:29.54ID:tNPqQxrGM
>>601
どっちもやる。
アイデミーから始めなよ。わかりやすいから。
603デフォルトの名無しさん (ワッチョイ 17eb-G60S)
垢版 |
2018/09/28(金) 11:08:53.98ID:Y0/Lv67w0
QiitaとHatenaは、インストール大先生の記事が多すぎて困るから検索結果から外してるわ
2018/09/28(金) 13:48:47.12ID:2IAcjEkAa
交差検証について検索してみるとその説明として、ある1つのモデルを考えた場合に、
元データをN分割してその内(N-1)個で学習して、残り1個でテストするのをNパターン繰り返すようなものと理解した。
しかし、CourseraのWeek6で説明してる交差検証は複数のモデルを思いついた場合の最良モデルを選択する手段と説明されており、
データをA,B,Cに3分割して、各モデルをAで学習、Bで評価して比較(このBをcross validation setと呼んでいる)、Bの評価で決定された最良モデルをCで最終評価するという内容になっている。
両者は別物のような気がするんだけど自分が理解しきれていないだけなのか?
605デフォルトの名無しさん (ワッチョイ 9f52-aQox)
垢版 |
2018/09/28(金) 13:54:00.86ID:gzs2bud+0
>>601
俺ならaidemyの無料部分だけ流し見してからPyQやる
2018/09/28(金) 13:56:04.74ID:SiTAO34aa
SQuAD とかやってる人いる? 流行りの先端モデルとかご存知なら教えてください

>>604
どっちも間違ってない。前者は本来の定義。後者は実践的。
2018/09/29(土) 02:24:39.57ID:yQMwJEzv0
キーエンスなんかは見込み客の連絡先を得るためにホワイトペーパー量産してるんだけどね
2018/09/29(土) 08:04:19.54ID:wDXsR2010
キーエンスw
2018/09/29(土) 08:26:36.08ID:yQMwJEzv0
あそこ営業に投資全振りだぞ
2018/09/29(土) 08:28:19.01ID:70xW0TAb0
誤爆?
2018/09/29(土) 14:07:15.40ID:yQMwJEzv0
qiitaのいいね稼ぎじゃ具体的な恩恵にならんから続かないって話
2018/09/29(土) 15:00:04.38ID:puJ5IR70a
キーエンスのホワイトペーパーは捨てアド偽名でダウンロードしてるわ
2018/09/29(土) 15:24:38.05ID:7SQdA+7Xd
tf 1.11 出たな、更新かけたわ。2.0 はまだなのか

>>611
それな。勤め先の意向で、個人名でひたすらいいね集めたけど、ひと〜つも仕事に結び付かなかったw
むしろ教えてちゃんからのメールが山ほどきて仕事にならなくなったんで撤退したわ

>>606
一時期やってたけど、もう少し具体的に。どういうアプローチかわからんとアドバイスしにくい。
2018/09/29(土) 17:38:55.50ID:ynHzs1ix0
機械学習のコンペばかりやっているが
いったい実務ではどのぐらいの精度ならOKにするのかとふと思った
2018/09/29(土) 20:16:28.30ID:e3HXgOr80
>>614
kaggleでメダル取れた?
2018/09/29(土) 21:12:49.04ID:a1dybsKxa
>>613
どもです。普通に DR とか使ってますがスコアが全然伸びません。

>>614
一般論としては仕事でやるならコストパフォーマンスが一番大事。
2018/09/30(日) 03:30:54.29ID:vyqR8BGx0
仕事では客が要求精度決めるから
それぞれだよ
618デフォルトの名無しさん (ワッチョイ 57c3-e6iu)
垢版 |
2018/09/30(日) 04:27:12.57ID:vzbl47da0
協調フィルタリングって任意の精度に調整する事って出来るのかな
例えば,精度が高すぎると新しい商品に巡り会えないから,適度に偶奇性を取り入れたりすること
またそのレベルを調整できるモデルって可能?
2018/09/30(日) 05:52:32.17ID:qu8/Df54d
>>617
コスト度外視できんだろ、バカだな、なのか
2018/09/30(日) 05:53:02.84ID:qu8/Df54d
>>616
2はそれじゃ無理
2018/09/30(日) 05:55:15.11ID:vyqR8BGx0
>>619
できる見込み立たなかったら出来ないって言うよ
2018/09/30(日) 06:00:07.93ID:qu8/Df54d
>>621
そういうことじゃないよ、金の話しだよ。精度上げるのに必要な金を気前良く払う客なんて滅多にいない。
2018/09/30(日) 06:23:01.63ID:/+1iIgD2a
予算枠は先に決まってるからね。逆に決まってない場合はまずアポーンw

>>617
一般論として、とわざわざ書いたじゃんw

>>620
なるほど… そういうことですか、別のモデルを調べてみます。
2018/09/30(日) 09:48:36.88ID:ec4AtTFMa
コスパって比率だからな
いくら比率良くてもパフォーマンスの絶対値が小さければ意味ないぞ
2018/10/01(月) 18:25:21.59ID:LX/fpUaV0
人工知能の本買ってきた
これで二冊目
迷ったけど
ディープラーニングとPython,Tensorflowの本にした
それにしても人工知能の本たくさんあった
5種類ぐらい
最初に買った「ゼロからはじめる〜」の本は10万部いったって
https://i.imgur.com/1QbZuPK.jpg
626デフォルトの名無しさん (アウウィフ FFdb-+W5L)
垢版 |
2018/10/02(火) 10:08:44.43ID:+xKncks4F
本屋の棚は賑わってるが粗製乱造
627デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/02(火) 14:00:24.78ID:2AKCrptK0
ネットに同等以上の記事はいくらでもあるけど
情報まとまってるし、時間ない初学者が買うのはあり
でも電子版じゃないとjupyterやcolabで手動かしながらやるのだるいから
実本はあまり勧めないな

つってもどんどん技術が陳腐化してくから、MLの基本とCNN,RNN,LSTM,GAN,Attentionの概要だけ身につけたら
あとはdeepmindのサイトと論文全部読んで
arxivでsota達成したのだけ数カ月分読むほうがトレンドを追いかけるには手っ取り早い

実装がメインなら論文追わずにKerasやっとけ
すごいのでたらそのうちKerasにも実装されるから
それ使えってのが俺の結論
2018/10/02(火) 14:42:01.10ID:NniAR04ea
NLP やるなら PyTorch がもう主流だけどな
629デフォルトの名無しさん (ワッチョイ 572d-tkFK)
垢版 |
2018/10/02(火) 15:23:49.58ID:vWOGvfhl0
みなさん、やっぱり、ハイスペックのゲーミングマシンで開発しているの?
630デフォルトの名無しさん (エムゾネ FFbf-+W5L)
垢版 |
2018/10/02(火) 15:43:52.26ID:yDKwoLm6F
うむ
2018/10/02(火) 17:16:03.25ID:87pQjPQD0
むう
2018/10/02(火) 17:56:36.01ID:0PhHaGOIa
クラウドでやるのと実機用意するのとどっちが安いか
633デフォルトの名無しさん (ワッチョイ 5723-qD32)
垢版 |
2018/10/02(火) 18:13:26.05ID:cO79peqD0
データ量次第としか
634デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/02(火) 18:41:23.89ID:2AKCrptK0
研究や学習用途ならもうcolabでいいんじゃねーの
TPUまで無料で使えるようになったから最強すぎるわ
ただ12時間超える学習なんかの場合は、途中で保存する処理を作るか
既にある処理を使う必要性がある、Kerasには既にある
tensorflowの低レベルでやる場合は自分で書く必要性あるのかな
Pytorchはまだ触り程度で詳しくないけど、kerasと同じようなライブラリあるならそれ使えばいい

業務やサービスの場合はどうせAWSかGCP,Azure借りるだろ
2018/10/02(火) 19:43:42.88ID:+CsxoQN10
学習中に不明な原因で接続が切れてた時の絶望感
2018/10/02(火) 20:06:47.65ID:Fw3dw3lVa
sotaという言葉を知らなかったので調べてみてstate of the artの略で直訳すると最先端とかそんな意味だから何となく言いたいことは分かったけど機械学習分野での定義に当たるものが全然見つからない
sota達成とか誰がどうやって決めてるの?
637デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/02(火) 22:59:32.38ID:2AKCrptK0
>>636
sotaって論文で書いてる連中は
arxivなどのオープンアクセスな論文サイトに投稿されてるコンピューターサイエンスの論文で有用なのはほとんど全部読んでる
だからどれが最高水準かを知ってるから
その分野におけるsota近辺のモデルの論文の結果と比較してsota達成としている
っていうのが俺の認識
論文完璧に追ってる以外にもカンファレンスで情報収集してるってのもあるだろうけど

物理学なんかと違って、ML分野はオープンアクセスな論壇で発展してきたからこうなってるんだろうけど
その辺の事情を追えてない日本人には全くわからん状態なのも仕方ない
638デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/03(水) 00:45:53.65ID:+7Euz2g60
あぁカンファで同時にsota報告が上がってたんだな
そりゃカンファで採択されるかされないかと
オープンアクセスサイトでの論文公開タイミングは、ものによってはちげーから
いくら先端追ってる連中でも被るのは仕方ない

・GAN的な双方向マルチ学習(自然言語で言うなら敵対的逆翻訳のしあいっこ?)
・特徴に時間間隔とポジション付与
・Attentionの構造改善

この3つが大体の今のトレンドだろ
全部組み合わせたのも半年以内に出てくるだろうけど
結局の所、事象における連続した時間情報の把握と
その状態における時間変化率の学習が上手く出来てないから汎用AIにはなれんだろう

ちゃんとした学者にも俺と似たような事言ってる人いて
脳構造の模倣による時間情報の学習を、哲学的な部分からやろうって言ってる人いるけどどうなるかな
2018/10/03(水) 01:19:02.14ID:jfGK+xYpd
脳構造だからうまくいくわけではない。
2018/10/03(水) 01:29:53.26ID:dkrkSoVO0
神経構造なんかは既に解明されてるけど
そうなるとしか分かっていない回路形成の発生学とか
関与しているらしいけど何してるのかいまいち分かっていないグリア細胞とか
こっちの方がモデリングをする上で重要だと思うけどね
今のMLでは生物の機能の一部を模擬してるだけに過ぎない
2018/10/03(水) 05:14:23.46ID:qbq9gQbU0
脳の機能(笑)哲学(笑)
2018/10/03(水) 07:10:02.33ID:1cI2REY30
哲学の成功は論理学と実証主義で完成したと思うよ
2018/10/03(水) 12:26:33.96ID:+58IDnbyd
脳モデルはあくまでNN、DL起案者が何をモデルとして数学モデル化したかであり、NN、DLは脳モデルそのものではない。
また、そもそも脳モデルが最適なモデルかどうかはまだ証明が存在しない。

たまたまDLがよい結果出たからそう言われてるだけ。

脳モデルが最適かどうかという前提を何も示さずに、研究者のなかに、『脳の伝達には〜があるから○○を追加したらこうなるはず』みたいな議論されているのを見ると、滑稽に思う。
2018/10/03(水) 12:28:55.71ID:sAnPmpeI0
なぜ最適を求める?
2018/10/03(水) 12:30:34.07ID:+58IDnbyd
よりよい結果が出たらそっちを採用するだけ。
それが脳モデルになるとは限らない
2018/10/03(水) 12:31:35.36ID:in1HBOwn0
>>643
ほんこれなんだよね

Andrew NgもDLを脳に結びつけて説明するのは、誤解が多いから止めたって言ってたわ
2018/10/03(水) 12:32:37.09ID:+58IDnbyd
世にこれだけディープラーニングが広まったのは、脳モデルの説明による功績が大きいけどな
2018/10/03(水) 12:35:57.50ID:d+kLgL6ia
人間の脳が超省エネで高速に学習して予測結果の出力できているのと比較すると現行モデルは脳と呼ぶにはには程遠いんだけど非理系メディアでは人間の脳を模倣しているなどと喧伝される
2018/10/03(水) 12:37:46.63ID:+58IDnbyd
世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。
650デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/03(水) 13:20:41.80ID:+7Euz2g60
CSなんて結局は計算能力との兼ね合いだからな
仮に完全に脳構造を模倣したモデルを組み上げたとしても
それがクソ重くて現行の計算資源で回らなけりゃクソだとしか評価されん
かといって脳構造の模倣や考察を放棄するのは適切じゃない
世界モデルもこっちよりだし、強化学習をやるためには避けられないだろう

問題はRNN,LSTMでは事象における連続した時間情報をあまり学習できてないってことだな
TransformerとUTは時間間隔をと位置情報を特徴に埋め込む事で
マルチヘッドセルフattentionにそれらを処理させているが
おそらくは完璧を求めると
階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう
計算力はどうせなんとかなるだろうし
誰かが気づけば、あと10数年で汎用AI完成するんじゃね
651デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/03(水) 13:29:51.05ID:+7Euz2g60
そもそも脳構造の哲学的推測における模倣はイメージじゃなくて
ただの論理的思考なんだけど
推測の過程において論理が飛躍しすぎてると
大抵の人は妄想だと判断して、考察を放棄する傾向があるからしょうがないわな
それが当たり前だもの
652デフォルトの名無しさん (アウウィフ FFdb-+W5L)
垢版 |
2018/10/03(水) 13:44:52.38ID:oOvr2XyQF
>>646 >>643
小脳とかをラッピングする形で大脳とかがあるように
NN を別の何かでラッピングするようなモデルがあっても
まだ全く脳のモデルですらない
2018/10/03(水) 14:55:39.60ID:in1HBOwn0
遺伝的アルゴリズムも名前が強そうだけど、中身はびっくりするレベルでしょぼいよね
2018/10/03(水) 15:06:45.43ID:6o3Z2FT6a
ニューラルネットワークなんて回帰を多層にしただけの超単純構造
2018/10/03(水) 15:13:09.66ID:sMpk7EKP0
>>653
はったり、生物の進化淘汰なんかどこにもない
2018/10/03(水) 17:49:41.29ID:+58IDnbyd
大事なことなので復唱します。

世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。

研究者の中には、脳モデルが最適かどうかという前提を何も示さずに、
『脳の伝達には〜があるから○○を追加したらこうなるはず』
みたいな議論されている方々がおりますが、根拠が薄く滑稽に思います。
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況