dlshogiは活性化関数をReLUからSwish関数にすると大幅に精度が上がったらしいけど、NNUEみたいな小さいネットワークでも効果あるのかな