在gpu.js的帮助下,我正在编写一个mandelbrot计算器,到目前为止,一切都很好。我面临的唯一问题是,GPU只想计算32位浮点数.或者至少这是官方文件告诉我的。有了Python,我就可以接近于1e-15,而在Javascript中,1e-7周围的图像变得模糊。@cuda.jit(device=True) c = complex(x, y)
所以我被要求编写一个程序,从用户那里获取无限数量的数字,直到他提交我能做的非常好的数字,但我也需要打印以下三个输入的最大和,例如,用户输入4,20,2,4,11,9,8,1程序应该打印11,9,8,因为这我试图构建一个函数,试图表现得像一个数组,但我真的不能回她的电话,因为它是一个双变量函数,其中一个是输入,这一点我显然不知道。现在正在研究这个问题5个小时了,我想我要你的智慧。int remember(int i, int n){}
*请注意,正在测试的金额是用户按确切顺序提