機械学習はGPU使うこと多いけど、こなれてきたらビットコマイニングみたいに専用ASIC作られて、GPUを使用しなくなったりしないのだろうか。