Deep learning
■ このスレッドは過去ログ倉庫に格納されています
>It typically uses artificial neural networks. ってことです、これに反論する人はこないでください。 このスレッドは天才チンパンジー「アイちゃん」が 言語訓練のために立てたものです。 アイと研究員とのやり取りに利用するスレッドなので、 関係者以外は書きこまないで下さい。 京都大学霊長類研究所 pre-trainingって、どういうデータでやるの? 学習に使うデータ? ランダムなデータ? 基本図形のようなデータ?(画像認識なら) Deep learning って、噂と論文の評価ばかりで反証した例が1つもない。 作ったと言い張るだけで、そのシステムが再利用できていない。 核心部分を隠蔽することで秘密だからという理屈で技術になっていない。 技術というのは誰でも再現して再利用できるものを言う。 それを除いた部分が噂とデマで広がっているだけな。 おまえらも本物しらずに他の翻訳みたいな解説本を売れば いまなら高額で売れるぞ。 Hintonの書いたWebSite読めないような人がDeep learningつかう機会あるのか? >>11 相手にするな。勝手な思い込みと決め付けで何もできないからストレスを 発散しているだけだよ。 matlabのコード置いてあるのに反証って、どうやるの? 自分で別のデータ用意すりゃ良いだけじゃないの? ついでに、この手のアルゴリズムって、 わざわざ自分でフルスクラッチで書かなくても誰かがOSSで実装しちゃう やる人はやる、無能は口だけで妬みだす、 定義とか具体性とかでいくら主張しても結果だせなければ技術者としてクズ以下なのよ 無能よばわりされたくなければ2chでうだうだいってないで手を動かせ頭を使え。 俺スゲーしたいなら2chで言うなボケアホ、自分のリアルな周りに納得させろ >>16 むしろ気になるのは、何で貴方みたいなのが、2chを読んだり書いたりするのかなって 例えば、研究室の自分の周りの環境が半日以上YouTubeでアニメを見るだけだったり、 指導教官の腐ったキテレツみたいなのが、瑣末な結果に因縁をつけて進捗しないだけでなく、 バグだと決めつけて次のステップに進めず、おまけにゼミでの指導がGNUPlotの色合いが悪いとか 線が細いみたいに研究と全く関係のない戯言で、学費泥棒みたいな環境に居たら、どうしたらいいわけ? 任意性度演算なにそれって人が教授やってるかと思うと反吐がでるよ あんな奴、クビになればいいのに >>17 必要な水準のはるか下か、最前線でオマエラより数段上にいるかの2択。 他人が引いた線路の上だけで線路から脱線しないようにしている有能さは 日勤教育の成果だな、JRは偉いわ。 技術とか真似することで始まるんだよ、だけど真似しかできないって 無力すぎる 未だに連想記憶モデルみたいなアルゴリズムに ノイズを入れて復元するだけの論文かいてるアホ教授いるだろ あいつらクビになんねーかな >>25 大学に金払うバカバカしさを悟ったところで卒業するんじゃないの? それとも高卒? >>27 >大学に金払うバカバカ ありえんw どんだけ貧乏なの? 寄付ぐらいしろよ。 >>28 Youtubeやスライドシェアに上がってる機械学習の資料を見た瞬間に 大学へ行くバカバカしさを悟ったよ。 大学教授のボンクラどもに募金するなら、そこらのOSSに寄付した方がマシ 資料の表面的な意味しか理解できない奴にはゴミ扱いなんだろうな。 それが超えられない壁を作っているわけで。 ばーか。こんなものは深く理解したところでゴミだ 5〜10年後に、DeepLearning以上のアルゴリズムが出来ているのは確実で、 DeepLearning自体のライブラリがOSSで出来上がる 性能が良いって理由で飛びつくヤツは本物のアホ vc++でゲームプログラマ級のプログラミングスキルが無ければ触らない方が良い HintonがGoogleに雇われている間に、新しい学習アルゴリズムを開発したら その知的財産権は誰のものになるんだろう 学生時代に読んだ論文の著者がFacebookやGoogleで働いてるのを見ると、 もっと論文を読み込んでおけば良かったって、とても損した気分になる やっぱり、あれをゴミ扱いしていた俺の指導教官がアホなのだ ttp://grey.colorado.edu/emergent/index.php/Main_Page なんだよこの糞スレは OSSならCaffeというスゴいのがもうあるだろ DLは俺も勉強してるけどこれは難しい 確率論や機械学習ある程度理解してないと読み解けない Baidu研究所のDeep Speech(DeepLearningを使った音声認識) http://usa.baidu.com/deep-speech-lessons-from-deep-learning/ DRNN使ってるけどさ、あれって言語モデルで使う場合、 現時点の入力単語に対して、次来る単語を予測するモデルじゃなかったっけ? 文献見ると、1つのニューラルで、音響モデルから言語モデルまで全部任せちゃうって書いてるよ。 どうやってんだ。 しかも、RNNの場合、入力と出力の数をあわせなければいけない。 合わせるにしたって、入力波形のアライメントというかサイズってどうやって特定してるんだろ? その音素区切りをやってる事前処理の方が気になるよ。 ConvolutionalNeuralNetworlの 畳み込みレイヤーの3Dとか2Dってどういう意味? 多分、俺は2Dしか知らないと思う。 フィルタにかけるテンソルの単位が何枚にも重ねて一度に処理するから速いってだけ? >>39 cuDNNの話? それであってるけど、3DはFP16対応やら最適化やら不完全で、 nVIDIAによると現状3Dはパフォーマンスでないから、2Dでやるのが吉。 複数画像を1枚にまとめてミニバッチ処理にするとよいよ。 Tensorにするのと、ミニバッチにするのの違いは? どちらも複数の画像をまとめる感じだよね。 上に重ねるか、横に並べるかの違いのイメージ。 特性とかに違いとかありますか? ここまでほとんど有益な情報無しとか終わってんな 日本の知性の総本山である2chでこれじゃあな DQNやろうぜ つい5〜6年前までは、ニューラルなんて過去のテクノロジ・・・っていう研究者が殆どだった。 そもそも、原因と結果がはっきりしないアルゴリズムなんだし、精度でなければ研究的にはただのゴミ。 理論を詰めることすら出来ない。 大半の人の中では、何か放り込んだら何かしら結果が出るってものだったしな。 >>44 情報持ってる人は、外に漏らすメリットないからな。 今まともに実装できる人は、自分で開発して売却すれば億単位の利益が入ってくるドル箱なんだし。 友人も、DeepLearning系やってる人は、Googleとかにガンガン青田買いされてとんでもない報酬貰ってる。 そりゃ、情報は独占するだろ普通に。 今のWebは情報持ってないけど興味ある人達が、 ちょこっとCaffeやpylern使って、その設定を公開してるだけの状態。 万能じゃないことにまだ気づいていないバカがいるから 万能である必要は無いのだが 勘違いしてる奴がいるな deep learningの本スレってここですか? 理系板回ってみたけど見つかんなかった 零和有限確定完全情報ゲームのAIを作るとして、 定石や手筋、上級者の棋譜といったものがない場合、 どのような学習方法が考えられるでしょうか。 逆に教師あり学習ならできるんじゃね?ゲームを通じての各局面に対する着手の組を 入力にして勝敗を出力にすれば。 局面がごく小さいゲームじゃないと収束しなさそうだけど。 ゲームだと勝った局にも悪い手があったり、負けた局にもいい手があったりして、 正しく学習するのがむずかしいとおもってます。 ディープラーニングで必要な教師データ数の指針をまとめてるような資料ない? >>55 そりゃ簡単だったら囲碁はとっくに人間に勝ってるよ あ、囲碁は完全情報ではないか deep learningを試行、実行、検証、、、実用への難しさ。 ・そもそも適切な能力を計算機が用意できない。 ・適切な計算機を、仕様に沿って実装し試行するために必要な資料が無い。 ・お金を出せる組織が、人員と、機材、環境津繰りに関心を持たせる動機付けが必要。 APIがどんなものあるかとかどう使うのかとか裏で何やってるかとかよくわからんかった。 チュートリアルの最初のほう動かすだけで精いっぱいだった。 手書きの数字認識とかいうやつ? 俺の頭じゃとても応用まで行きそうにない。 俺がやりたいことやろうとするとデータも自前で用意する必要あったし。 まあ僕もディープラーニングの本読み始めたところでちんぷんかんぷんなわけだけどw とりあえず環境作ってTensorFlowいれてチュートリアルが動くのは確認した。 conv3dって見たことないんだが、三次元の畳み込みって需要ないんだろうか? >>71 あるよ 動画と、ct mri なんかのボリュームデータで使われてる 動画はリカレントが多いけど >>72 オススメのconv3dできるライブラリとかあります? >>73 theano で使えるって聞いたことあるけど、chainer で、自前で書いた ChainerってGeforce使ってないと使えないの? gpuで動かすならnvidiaじゃないとダメ amdでは動かない cpuだけでも動くよ >>77 thx たしかにCPUだけでも動くけど、CUDAのインストールは必須なんだね TensorFlowでいいわやっぱ これからの主流はTensorFlowでしょやっぱ 二種類の画像で教師ありの学習をさせて画像を変換するネットワークを作ってみたいのですが参考にする論文の検索ワードが思いつきません 何か良いものがあれば紹介していただけないでしょうか ごめんその説明はちょっとわからないよ 変換ってどう変換したいの? モーフィングがしたいってこと? >>82 分かりにくい表現で申し訳ないです。 画像を必要な領域と不要な領域に分けて不要な部分を黒塗りにするとか、 点がたくさん打ってある画像からその点を点電荷と見なしてポテンシャルのマップを出すとか、 ポテンシャルのマップからそのポテンシャルのマップ上で自由に運動する粒子の存在確率マップを出すとかの類の変換がしたいです >>83 そういう処理なら既存の画像処理のアルゴリズムで十分実現できるのでは? ニューラルネットワーク使うまでもないんじゃないの >>84 まだこれの全容を掴めておらず、何だか近いような違うような気がします。本腰を入れて調べてみます。 大変参考になりました。ありがとうございます >>85 実は上であげたような類の変換を教師あり学習で覚えさせたいのです もしそのようなアルゴリズムがあれば教えていただければありがたいです なんでmnistやるときはピクセルの値を0〜1にしないとうまく学習できないんでしょうか? >>88 学習データの圧縮の影響じゃないの? カラー画像扱うより2値画像の方がデータ量少ない。 しかもその画像を万とか億単位で学習させなきゃなんない。その結果を使って認識してる。 どうしてもカラー扱いたいなら、学習データからrgbの3ファイルに分解して3原色毎の学習させて、上位段を3原色の認識結果を更に学習させたらいいんじゃね? これで信号機の配置順に関係なく正確に判別出来ると思うけどなぁ。色判別必要な認識からちょっぴりエスパーしてみたw 質問者も回答者もワケわかってなくて失笑 mnistすら回したことない人がこのスレにいるのも不思議 質問者が言ってるのは二値ではなく最小0最大1のこと 別に元データのように256段階でも精度はでるが、 使ってるサンプルプログラムが0から1を受け入れるように書かれてるだけの話 大方chainerあたりなんだろうけど mnistにはそもそもカラーデータなんて無い グレースケール256段階の手書き文字 ここが2chでよかったね mnistのデータセットの仕様知らないのは機械学習を知らないのと同義 0..1の範囲だと扱いやすいから、そうしてるだけっていう >>90 >>92 kerasの畳み込みニューラルネットをjuliaから呼び出した時の話なんですけど、255で割るのを忘れて実行すると全く学習できなくなってしまったんです。255で割ったらすんなり学習しました。 今指摘されてPythonからの呼び出しで255で割らずに実行したら割った時より学習が遅いものの、たしかに学習しているのを確認しました。 なんだかよくわからなくなってきたのでもう一度コードを確認してみます。ありがとうございました。 「慶應ミスコン中止」の陰に1年生女子「集団強姦」 加害学生を直撃! 週刊文春 10月11日(火)18時1分配信 http://zasshi.news.yahoo.co.jp/article?a=20161011-00006659-sbunshun-soci 「慶應ミスコン中止」の陰に1年生女子「集団強姦」 加害学生を直撃! 事件現場 10月4日、“女子アナの登竜門”とも称される「ミス慶應コンテスト」の中止と、同コンテストを企画・運営する公認学生団体「広告学研究会」(以下「広研」)の解散が発表された。 慶應大学側は、「告示文」においてその理由を「未成年飲酒」によるものとだけ説明したが、小誌取材により、大学側が明かさなかった「広研」の男子学生が引き起こした重大な事件が明らかになった。 事件が起きたのは9月2日、現場となったのは、神奈川県葉山町内にある広研の「合宿所」だった。事件の全貌を知る広研所属の学生が語る。 「この日は、広研が夏の間に運営している海の家の撤収を行う作業のため、6人の男子学生が合宿所に泊まっていました。作業終了後、 酒を飲むことになり、呼び出されたのが6人と顔見知りだった1年生のA子さんです」 そして深夜、男子学生たちは酒で意識のなくなったA子さんに襲いかかったのである。しかも、あろうことか、その様子を別の学生が撮影し、実況まで行っていたという。 男子学生の一人は小誌の直撃に対して最初は偽名を名乗ったが、「何も答えられないです」と言いながら、本人であることを認めた。 「謝罪の気持ちは本当に……。時が来たら連絡します」と言い残すのが精一杯だった。 一方でA子さんの母親は、小誌取材に対して、警察に被害届を提出したことを認めた。 上記事実の確認を慶應大学に求めたところ、「今回の解散命令の基礎になった事実は告示文に記載されているとおりです。なお、 今回の処分は、関係者に複数回にわたる事情聴取を行う等、大学として可能な限りの調査を行ったもので、適正なものと認識しております」との回答があった。 詳細は、10月13日発売の「週刊文春」10月20日号で報じている。 <週刊文春2016年10月20日号『スクープ速報』より> http://i1.wp.com/media.sairilab.com/wp-content/uploads/2016/10/keioumi3_4.jpg?w=650 またチョーセンジンか。 👀 Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f) 画像識別にはCNNだそうですね。 動画識別で、時間による画像の変化量で、識別(Classification)したい場合には、どうするのでしょうか。 CNNでできるのでしょうか。 生体組織を動画でとって、 乾燥の仕方、 乾燥しやすい乾燥しにくい、とか、水分や油分足りてる足りない、 を分類したいです。 >>97 従来から画像処理でやられてきたことなんでしょうか?使われてきた特徴量とかの知見なしにいきなりCNNはかえって遠回りかも? 従来の画像処理がイマイチだったのでDNN、という流れです。 オプティカルフローで1枚にしてCNNする か、 複数画像を3D CNNする か、 といったところなのでしょうか。 質問です: 画像データを、教師なし学習でクラスタリングしたいと思っています。 機械学習〜>Deep Learningの流れで、 教師なし学習よりも教師あり学習が主流になってきっぽいのですが、 前述のDeep Learningで画像データをクラスタリングするのは、どうやるのでしょうか? >>101 いろいろあるけど、autoencoder 使って、その後クラスタリングとか >autoencoder って、 教師ありなんですか、教師なしなんですか? 自分あるサイトで教師なしだと思ってたら、別サイトだと教師ありとなってたり、 やはり基礎が無いといろいろと難しいですね。 それ自動生成した文章? 生成器自作したならすごいね うお、俺のレスもおかしくなってる すまんこっちの環境の不具合みたいだ kwsk、kwsk。 実はAutoencoderの教師あり学習サンプルで勉強していたのですが、本当は教師なしのクラスタリングが欲しくて。 それも単なる機械学習のクラスタリングじゃなくて、DNN的にデータ側から分類を発見、みたいな感じで。 だな もし答えても、その答えだけでは絶対理解できないはず 本は10冊程度読める状況なうえ、 自費でゼロから作る〜 も買いましたよ。 Kindleのみの本も持ってます。 これって、高校生の数学程度だと、勉強するのはやっぱりそうとう無理でしょうか? 秋葉原の橋の近くの本屋さんでパラパラめくってみたのですけど、動かすくらいはなんとかなるかもしれない、意味がよくわからないな、と。 やっぱり、大学でコンピュータをちゃんと勉強したような人じゃないと、ディープラーニングって意味がわからないものなのでしょうか? >>113 必要な数学とか統計学も一緒に勉強してしまえばいいと思うよ。 >>114 統計とかも勉強する必要があるんですか。 なかなか大変なんですね ありがとうございます。 >>115 動かすだけならNVIDIA DIGITSあたりが手軽だと思うよ。 意味が分からない方が幸せかもしれない 知ればあまりの制約の多さに、絶望するだろう 期待しているものには全然届かない >>117 そうなんですか。 買ってきて、パラパラ読んでる本だとPythonでやってみようとあるので、使わなくなったパソコンにPythonいれてやってみようとしてます。 専用のハードまで買うのはなかなか難しいですね。 >>118 まだ本を買ってきて、これから読みはじめるとこなので、挫折できるほど進んでません。 どう言うことができるようになる技術なのか、ある程度わかるようになれたら、いいなぁというのが今の目標です。 だってkerasで凝ったことしようとするとすぐにtheanoが顔出すんだもん H265の検証→アニメ VR→アニメ 顔認識→アニメ 画像生成→アニメ なぜなのか 本当にがっかりする >>114 石村貞雄・園子の御夫妻が「ディープラーニングのための数学」とか東京書籍より出してくれんかな。 >>114 統計やらないといけないというのは SQLには集合(集合論理、集合演算、述語論理)やらないととおなじなんでは 事典をパラパラめくるのは気づかせられるときあるけど 数学も行列演算だけでよいきがする >>126 ヤコビアンやらヘッシヤンやらナブラとかだっけ? そこらは暗号アルゴリズムがライブラリで実装かつ隠蔽されるみたいにユーザより開発者はきにせんでいいのちゃうかな MITやStanfordやのサイトのぞくとMLでそこらバリバリでてくるけど Stanford Prof. Ng のMLのCoursera だとOctaveで行列演算がメイン、 Jacobianや偏微分ちらり、最適化降下アルゴリズムはライブラリ呼び出し DeepLは必要なってくるのかな 2月は卒研で何も出来ない 3月締め切りのいい会議ないものか CNNしようとすると、フィルタの可視化とかしたいので、やはりRGB(BGR)ですよね。 それだと3バイト。 しかしながら、画像に4方向(上下左右)を持たせたいのですが、どうするのでしょうか。 >>129 とりあえず16バイトぐらいもっといたらええやん いらんかったら使わんでええし、足りんかったらまた言ってや >>130 16バイトの画像形式ってありましたっけ? CNNのフィルタを可視化したいので、画像形式じゃないと、困ったことになります。 >>130 1組の4枚の画像をそれぞれ別のCNNに送り込んで出力層で加算して softmax関数を通す方が取り扱いが楽だと思う。 >>131 16バイト画像形式可視化をコーディングできないならCNN出力合成も無理かな? それなら4方向の画像を2x2に並べた1枚の画像で学習させればよい。 機械学習スレに学習した画像を可視化する記事がある。 http://echo.2ch.net/test/read.cgi/tech/1487433222/19 >>130 >1組の4枚の画像をそれぞれ別のCNN softmax関数を通す そういったことが実現可能なんですね。 それがやりたいことです。 >可視化をコーディングできないなら C++とかならいつもやってますが、 実は、M(ry、とかでやってるので、 専用関数を使うのですがその中身を見るとゴリゴリで、 慣れてなくてw >記事 読んでみます。 >>130 >4方向の画像を2x2に並べた1枚の画像で学習させればよい 読み直したら、さらにこういう方法もあるですね。 CNNだから、画像間の関連は捨てられないものと思っていたのですが、 同じ形式で4枚並べるのはアリなんですね。 有効な解決策が2つ(以上)あるところが、NN的というか、おもしろいですね。 ごめんなさい、 アンカー「>>130 」と書いたのは間違いで、正しくは「>>132 」でした。 昨日プライムニュース(BSフジ)でなんかやってたけど 深層学習ってそんなにすごいの? Openmpのoffloadingでgpu計算出来るならcupyもtensorflowもいらなくね >音楽より画像処理の方が凄いな。ディープラーニングで画像補完。 フォトショでCG加工や写真補正をチマチマやる必要のないレベルに来てる。 そのうちディープラーニングで自動作曲とか出てきそう。 画像を塗りつぶした部分に一瞬で自然な画像を補完する技術を早稲田大学の研究者が開発 http://gigazine.net/news/20170501-globally-locally-consistent-image-completion/ Windows7 Pro 64bitでtensorflow-gpuインストールしてるんだけど、 GPUはGeforce750ti&Geforce1080tiで、以下のようにインストールして、 1.ディスプレイドライバインストール 2.Visual C++ 2015再頒布可能パッケージインストール 3.CUDA 8.0インストール 4.CUDnn V5.1インストール 5.Anaconda3(python 3.5.2)インストール 6.tensorflow用の環境作成 7.tensorflow環境をあくティベーとしてtensorflow.orgのインストール手順に従いtensorflow-gpuをインストール pythonを起動して >>>import tensorflow as tf ってやっても、プロンプトが帰ってくるだけでCUDAのモジュールがロードされない。 通常は、 I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library cublas64_80.dll locally I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library cudnn64_5.dll locally I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library cufft64_80.dll locally I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library nvcuda.dll locally I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library curand64_80.dll locally て出るはずなんだけど何が原因だかわかりますか? どの作業でもエラーは出ておらず、nvidia-smiでみてもGPUは認識されてるし何が悪いのかわからない。。。 +-----------------------------------------------------------------------------+ | NVIDIA-SMI 381.89 Driver Version: 381.89 | |-------------------------------+----------------------+----------------------+ | GPU Name TCC/WDDM | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | |===============================+======================+======================| | 0 GeForce GTX 750 Ti WDDM | 0000:01:00.0 On | N/A | | 26% 40C P0 1W / 38W | 127MiB / 2048MiB | 0% Default | +-------------------------------+----------------------+----------------------+ | 1 GeForce GTX 108... WDDM | 0000:02:00.0 Off | N/A | | 23% 30C P8 9W / 250W | 121MiB / 11264MiB | 0% Default | +-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+ | Processes: GPU Memory | | GPU PID Type Process name Usage | |=============================================================================| | 0 4668 C+G ...x86)\Google\Chrome\Application\chrome.exe N/A | +-----------------------------------------------------------------------------+ chainerでtrain_mnist.pyを実行すると、CUDAがないとか言われるからCUDAが見えないんだと思うけどPATHも通ってるし何が悪いのかわからない。。。 【DNN】グーグル子会社、深層学習より高い予測性能を実現 [無断転載禁止](c)2ch.net ttp://egg.2ch.net/test/read.cgi/bizplus/1497919282/ 、z=ニ三三ニヽ、 ,,{{彡ニ三ニ三ニミヽ }仆ソ'`´''ーー'''""`ヾミi lミ{ ニ == 二 lミ| {ミ| , =、、 ,.=-、 ljハ {t! ィ・= r・=, !3l `!、 , イ_ _ヘ l‐' Y {.┬=、__` j ハ ̄ ,. -‐ へ、`ニ´ .イ / / 、 |l`ー‐´ / / l l |/__|// / l l l/ |/ / >>147 上はdeepmind公式 下は論文を読んだ有志が作ったもので deepmindとは無関係 >>147 alphagoは第二の論文は予定しているけど ソースコードは公開しないと公式には発表しているから 待っていても多分出ないよ。 ソースもない、バイナリもない。 ただコードを変更しなくても勝手にゲームのルールを学習したという。誰も再検証できない論文。 ネットワークにデータを流すときって、 単なる画像であればRGB画像でよいのでしょうが、 付加情報足して3次元以上になる場合って、 どういった空間にするんでしょう。 適当なバイナリにするのでなくて、 可視化できる形式なのがGOODなんですが。 >>153 の件ですが、 画像に情報量が多い場合、 どういったフォーマットにしてまつか? 色空間とかどれが良いのでしょう。 372仕様書無しさん2017/08/11(金) 10:31:43.41 フリーランスで検索すると引っかかる零細ITがやっているサイトはだめだ。 高額に見せているけど実際は50万前後 JIET加入した方がいいよ。案件は毎日千件以上末端価格は60万円 平凡な稼働時間の80万円の案件もある。 ユー子が求人をだしてる。名刺も渡せる。ユー子に名刺が渡せるんだぞ。夢のようだ それらの案件まさぐってHPで転売していたのが零細ITがやるフリーランスサイト 自称エージェントはJIETから流れてくる案件を転売してるだけだった。 JIETに加入すれば誰でも案件に応募することができた。収入が40万50万台にならなくて済む 473非決定性名無しさん2017/08/03(木) 15:21:30.71 JIETに加入すれば誰でも3次60万からスタートだ。フリーランスのサイトをやってる 自称エージェントもそこから案件情報を取得しきてる。サイトで60万で釣って40万から55万の 間でやらしている。 【IT】Google、音声認識システム訓練用データセットをオープンソースで提供 [無断転載禁止]©2ch.net http://egg.2ch.net/test/read.cgi/bizplus/1503908555/ AIの学習を実験してみたいのですが、 半精度浮動小数点 ビデオカードで、 お勧めのカードはありますか。 手始めに「GeForce GTX 1070」あたりがコスパ的にも良いのでしょうか。 Tensorflowってc++で全部書いた場合の半分ぐらいは速度出る? ディープラーニングの人気書籍のレビュー見ると、 結局この本はディープラーニングの手前だとか、 機械学習の本であってディープラーニングじゃないとかいうオチで締めくくられているが、 どの本が本当にディープラーニングなんだ? ひょっとして存在しないのか? >>174 つまりちゃんと色々なDeepLearningのプログラムを実装して実行できるまでが載っている本 DeepLearingがわかる本 ディープラーニングとディープニューラルネットワークの違いが分かってない著者が多いな >>172 多層なことを以ってDLと称する論者もいるからね 僕の知り合いの知り合いができたパソコン一台でお金持ちになれるやり方 役に立つかもしれません グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』 K1B2F 【大学数学】ベイジアンネットワーク【機械学習】 https://youtu.be/zYKOL5RpVbo 概出? > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^ あー、ホンッとに思い出すなあ(笑) キチガイの嘘つきの低レベルFランの、 朝鮮ゴキブリBot君は、 チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な ことはよーくわかったよ。 ホントなにもできない朝鮮ゴキブリBot君! クソチョンw プログラミングで月20万円稼げるのって 7日で出来るの 俺から見るとサキさんだど思うが 「tps://www.youtube.com/watch?v=TLY2NPpxd58」 ? ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.1 2024/04/28 Walang Kapalit ★ | Donguri System Team 5ちゃんねる