首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    快过C语言?!还有这种操作?!

    Python向来都是开发速度最快,运行速度最慢的编程语言,提升速度的办法我之前讲过几种,比如和C语言交互,使用多进程。仅仅靠这两个方法来提高Python性能可是远远不够的!如果和C语言交互,速度确实得到了提升,但是没办法快过C语言。这就好比一个人跑得快,一个人跑得慢,跑得慢的那个人希望自己跑快点,让那位跑得快的拉着他,这样就会出现这种情况,跑得快的人会比他自己一个人跑慢,跑得慢的那个人会比自己一个人跑快。所以和C语言交互这种方式对运行性能的提升十分有限。下面来简单分析一下多进程是不是完美无缺了呢?其实并不是,创建多个进程系统开销远大于一个进程,而且进程太多可能会出现资源不足的情况,严重可能出现系统崩溃!

    03

    Python的GPU编程实例——近邻表计算

    GPU加速是现代工业各种场景中非常常用的一种技术,这得益于GPU计算的高度并行化。在Python中存在有多种GPU并行优化的解决方案,包括之前的博客中提到的cupy、pycuda和numba.cuda,都是GPU加速的标志性Python库。这里我们重点推numba.cuda这一解决方案,因为cupy的优势在于实现好了的众多的函数,在算法实现的灵活性上还比较欠缺;而pycuda虽然提供了很好的灵活性和相当高的性能,但是这要求我们必须在Python的代码中插入C代码,这显然是非常不Pythonic的解决方案。因此我们可以选择numba.cuda这一解决方案,只要在Python函数前方加一个numba.cuda.jit的修饰器,就可以在Python中用最Python的编程语法,实现GPU的加速效果。

    02

    『JAX中文文档』JAX快速入门

    简单的说就是GPU加速、支持自动微分(autodiff)的numpy。众所周知,numpy是Python下的基础数值运算库,得到广泛应用。用Python搞科学计算或机器学习,没人离得开它。但是numpy不支持GPU或其他硬件加速器,也没有对backpropagation的内置支持,再加上Python本身的速度限制,所以很少有人会在生产环境下直接用numpy训练或部署深度学习模型。这也是为什么会出现Theano, TensorFlow, Caffe等深度学习框架的原因。但是numpy有其独特的优势:底层、灵活、调试方便、API稳定且为大家所熟悉(与MATLAB一脉相承),深受研究者的青睐。JAX的主要出发点就是将numpy的以上优势与硬件加速结合。现在已经开源的JAX ( https://github.com/google/jax) 就是通过GPU (CUDA)来实现硬件加速。出自:https://www.zhihu.com/question/306496943/answer/557876584

    01
    领券