我想做以下简单的实验。
我在用Tensorflow。我有一个大数组(5000x5000 float32元素)。如何测量将这个数组从RAM移动到GPU内存实际上需要多长时间?我知道我可以创建一些非常简单的计算图,运行它,并测量它花了多长时间。然而,这有两个问题。首先,我担心测量的时间将被计算所需的时间所支配,而不是通过从RAM do GPU
我有一个使用OpenGL ES 2.0的应用程序,并使用一个GLSurfaceView和一个Renderer类来绘制屏幕。最初,我将渲染模式设置为RENDER_WHEN_DIRTY,然后每秒调用requestRender() 60次,计时完成该功能所需的时间,但是当程序明显滞后在我的手机上时,我一直得到难以置信的短帧时间(然后,我决定在实际的onDrawFrame()函数中执行计时。我在函数的开头和结尾都使用了SystemClock.elapsedRe