深層学習使い画像から物体検出をする時の1例

とりあえず画像からの物体検出なら

1. 何万枚あるいはそれ以上の画像を用意して
その中に目的となる物体があったら、それを大まかに四角く括るか
またはある程度の精度で輪郭をなぞる
そして、それぞれの四角に「これは何という物体である」という札をつける
(アノテーション)

2. 四角く囲んだら画像内での左上座標と四角形の幅と長さと物体の種類を
XMLファイルに記述する(JSONファイルなどでも良い)
また輪郭をなぞった時はなぞるというか使った多角形座標の数だけ
XMLファイルに記録される

3. 画像と、その上の物体座標を対応させたXMLをまとめて読み込んで
このような画像なら、例えば1000×1000のピクセル数の画像を
数十回の「畳み込み演算」(1000×1000を300×200、220×130、と徐々に減らして行く)を行い
最後は物体の種類数(太陽、雲、J-20、J-31、J-11、J-10、F-3、F-15J、F-2などなどなどこの場合9種)
まで、つまり9×1まで絞り込む
ピクセル上のどの座標とどの座標がどこに組み合わされて次の配列に変換されるかを
数万回の演算で調べ、最も確からしく(最尤法という奴)出力される
最初の画像ピクセル配列からの畳み込みの組み合わせの数値及び途中の配列を、学習器として出力する

ここまでが学習過程である

4. 得られた学習器を使って、インスタントに任意の画像を使って物体を検出できる。
この場合、一度学習器が作られているので一々学習せずに使えるので
コンピュータの性能次第ではあるが、瞬時に物体を検出できる(それでも性能次第では20秒以上掛かったりする)

とは言っても、この畳み込みを使ったCNNだの改良したRNNだのももう幾分古いね
今はトランスフォーマーという手法があって素晴らしい性能を示している