で、NNやDNがやっていることもこの表現で表すことができて、
入力x(Xの要素)に対する教師f^(x)(xに対する具体的なf(x)の値を観測したもの)の対(x, f^(x))を
学習サンプルとして、Vを推定する所業に他ならんぬ、

この観点で見たときNNやDNがVに大して思わずどういう制約を課してしまっているのかというと、
全要素v(x, x')が|x-x'|(ベクトルの差のノルム)を引数とする「一種類の」1価関数に制約していることに他ならない、
さらに言うと、このことは(NNの活性化関数ψ()と重みwと入力ベクトルxが出てくる例の表式を変形したら示されるが)
事前確率を一定とみなしていることに他ならないから、わりと稀な事象の(x, f^(x))と、メジャーな事象(x', f^(x'))を
漫然と与えると学習結果がかなり推定精度(事後確率)的にマズーなものになるのは火を見るより明らか
(オーバーフィッティング天国ェ、

こんなだったら最初から素直にベイズ推定すればよろしい
皆新しいものに新しいからという理由だけで飛びつきすぎでありかつ大して進歩になっていないので
はないか、