前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >PyTorch碎片:PyToch和Torchvision对应版本「建议收藏」

PyTorch碎片:PyToch和Torchvision对应版本「建议收藏」

作者头像
全栈程序员站长
发布于 2022-09-12 03:00:35
发布于 2022-09-12 03:00:35
1.7K00
代码可运行
举报
运行总次数:0
代码可运行

大家好,又见面了,我是你们的朋友全栈君。

前言

  • 错误分析
  1. 安装pytorch或torchvision时,无法找到对应版本
  2. cuda可以找到,但是无法转为.cuda()
  • 以上两种或类似错误,一般由两个原因可供分析:
  1. cuda版本不合适,重新安装cuda和cudnn
  2. pytorch和torchvision版本没对应上

pytorch和torchvision版本对应关系

以下版本截止2022年5月5日

pytorch

torchvision

python

cuda

1.11.0

0.10.0

>=3.6

11.3(不再支持CUDA10.2)

1.10.0,1.10.1

0.11.0

>=3.6

10.2,11.3

1.9.0

0.10.0

>=3.6

10.2,11.3

1.8.0

0.9.0

>=3.6

10.2,11.1

1.7.1

0.8.2

>=3.6

9.2, 10.1,10.2,11.0

1.7.0

0.8.0

>=3.6

9.2, 10.1,10.2,11.0

1.6.0

0.7.0

>=3.6

9.2, 10.1,10.2

1.5.1

0.6.1

>=3.6

9.2, 10.1,10.2

1.5.0

0.6.0

>=3.6

9.2, 10.1,10.2

1.4.0

0.5.0

==2.7, >=3.5, <=3.8

9.2, 10.0

1.3.1

0.4.2

==2.7, >=3.5, <=3.7

9.2, 10.0

1.3.0

0.4.1

==2.7, >=3.5, <=3.7

9.2, 10.0

1.2.0

0.4.0

==2.7, >=3.5, <=3.7

9.2, 10.0

1.1.0

0.3.0

==2.7, >=3.5, <=3.7

9.0, 10.0

<1.0.1

0.2.2

==2.7, >=3.5, <=3.7

9.0, 10.0

conda安装方法

根据pytorch官网方法安装,参考

https://pytorch.org/get-started

上面命令为安装最新的版本,为了能够应对各种不同硬件条件,常需要手动输入命令安装特定版本,可参考如下代码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 安装pytorch==1.x.0 torchvision==0.x.0 cudatoolkit=10.x
conda install pytorch==1.x.0 torchvision==0.x.0 cudatoolkit=10.x -c pytorch

比如,举个更具体地例子:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# CUDA 9.2
conda install pytorch==1.2.0 torchvision==0.4.0 cudatoolkit=9.2 -c pytorch

# CUDA 10.0
conda install pytorch==1.2.0 torchvision==0.4.0 cudatoolkit=10.0 -c pytorch

# CPU Only
conda install pytorch==1.2.0 torchvision==0.4.0 cpuonly -c pytorch

后话

其实,环境中各版本对应关系出错,很容易导致各种乱七八糟地错误,所以尽量按照官方的要求安装。而且,新手还是建议使用次新版Pytorch,一方面强迫自己养成新coding习惯,一方面也为将来几年时间的代码不落伍提前准备。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/152582.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
Python爬虫从入门到放弃(十六)之 Scrapy框架中Item Pipeline用法
当Item 在Spider中被收集之后,就会被传递到Item Pipeline中进行处理 每个item pipeline组件是实现了简单的方法的python类,负责接收到item并通过它执行一些行为,
coders
2018/01/04
1.1K0
Python爬虫从入门到放弃(十六)之 Scrapy框架中Item Pipeline用法
Scrapy 框架的使用之 Item Pipeline 的用法
Item Pipeline 的调用发生在 Spider 产生 Item 之后。当 Spider 解析完 Response 之后,Item 就会传递到 Item Pipeline,被定义的 Item Pipeline 组件会顺次调用,完成一连串的处理过程,比如数据清洗、存储等。
马修
2021/01/21
6630
[890]scrapy之pipeline的使用
scrapy的pipeline是一个非常重要的模块,主要作用是将return的items写入到数据库、文件等持久化模块,下面我们就简单的了解一下pipelines的用法。
周小董
2020/08/13
1.1K0
Scrapy(4)spider 帮助你寻找最美小姐姐
我们都知道我们平常想下载一些漂亮的图片来装饰自己的桌面,可是找到了都是需要收费的网站,真的很恼火,所以今天小编,可能要带大家实现这么一个工具,可以用来爬取某个网站的好看的图片
公众号---人生代码
2020/05/16
5150
Scrapy框架之批量下载360妹纸图
0.导语1.项目初始化2.定义存储结构3.Spider核心代码4.pipeline下载及存储5.json知识
公众号guangcity
2019/09/20
5670
Scrapy框架之批量下载360妹纸图
Scrapy+MongoDB 轻松爬取海量妹子图
【原文链接】:https://mp.weixin.qq.com/s/WIrepTu-2CGrGifLLRsHjw
Python数据科学
2018/09/14
1.7K0
Scrapy+MongoDB 轻松爬取海量妹子图
手把手教你用Scrapy爬取知乎大V粉丝列表
导读:通过获取知乎某个大V的关注列表和被关注列表,查看该大V以及其关注用户和被关注用户的详细信息,然后通过层层递归调用,实现获取关注用户和被关注用户的关注列表和被关注列表,最终实现获取大量用户信息。
IT阅读排行榜
2021/05/06
9420
基于Scrapy-Redis的分布式景点数据爬取与热力图生成
在旅游行业和城市规划中,热门景点的数据分析具有重要意义。通过爬取景点数据并生成热力图,可以直观展示游客分布、热门区域及人流趋势,为商业决策、景区管理及智慧城市建设提供数据支持。
小白学大数据
2025/05/17
1310
使用Python和Scrapy框架进行网络爬虫的全面指南
网络爬虫是一种自动化的程序,用于从互联网上收集信息。Python是一个功能强大的编程语言,拥有许多用于网络爬虫的库和框架。其中,Scrapy是一个流行的开源网络爬虫框架,它提供了一套强大的工具和组件,使得开发和部署爬虫变得更加容易。本文将介绍如何使用Python和Scrapy框架来构建一个简单的网络爬虫。
一键难忘
2024/07/08
5460
Scrapy框架系列--数据不保存,就是耍流氓(3)
OK,通过签名两篇文章《爬虫利器初体验(1)》《听说你的爬虫又被封了?(2)》,我们初体验也过了,爬虫代码健壮性也升级为 PLUS 了。都分析到这个地步了,是不是感觉还少了点什么?对,我们还没保存数据呀?不保存,这不是瞎忙活吗?
1480
2019/08/05
9690
Scrapy框架系列--数据不保存,就是耍流氓(3)
scrapy 进阶使用
乐百川
2018/01/09
2.1K0
scrapy 进阶使用
分布式爬虫搭建系列 之三---scrapy框架初用
其次,通过我们的神器PyCharm打开我们的项目--crawlquote(也可以将PyCharm打开我们使用虚拟环境创建的项目)
wfaceboss
2019/04/08
6010
分布式爬虫搭建系列 之三---scrapy框架初用
利用 Scrapy 爬取知乎用户信息
  思路:通过获取知乎某个大V的关注列表和被关注列表,查看该大V和其关注用户和被关注用户的详细信息,然后通过层层递归调用,实现获取关注用户和被关注用户的关注列表和被关注列表,最终实现获取大量用户信息。 一、新建一个scrapy项目   scrapy startproject zhihuuser   移动到新建目录下: cd zhihuuser   新建spider项目: scrapy genspider zhihu zhihu.com 二、这里以爬取知乎大V轮子哥的用户信息来实现爬取知乎大量用户信息。 a)
希希里之海
2018/05/16
6720
Python(十六)
接下来的几篇,我们将介绍一下最流行的爬虫框架 Scrapy。本篇,我们会介绍一下 Scrapy 的基本使用。
1ess
2021/11/01
3390
Python(十六)
Python爬虫从入门到放弃(十九)之 Scrapy爬取所有知乎用户信息(下)
在上一篇文章中主要写了关于爬虫过程的分析,下面是代码的实现,完整代码在: https://github.com/pythonsite/spider items中的代码主要是我们要爬取的字段的定义 cl
coders
2018/01/04
8840
Python爬虫从入门到放弃(十九)之 Scrapy爬取所有知乎用户信息(下)
Python爬虫框架:scrapy爬取知乎数据
基础环境沿用之前的环境,只是增加了MongoDB(非关系型数据库)和PyMongo(Python 的 MongoDB 连接库),默认我认为大家都已经安装好并启动 了MongoDB 服务。
python学习教程
2019/10/22
1.5K0
Python爬虫框架:scrapy爬取知乎数据
基于Scrapy-Redis的分布式景点数据爬取与热力图生成
在旅游行业和城市规划中,热门景点的数据分析具有重要意义。通过爬取景点数据并生成热力图,可以直观展示游客分布、热门区域及人流趋势,为商业决策、景区管理及智慧城市建设提供数据支持。
小白学大数据
2025/05/16
570
data pipeline是做什么_pycharm创建爬虫项目
爬取爱套图网图片:https://github.com/EExplode/scrapy_aitaotu
全栈程序员站长
2022/10/05
4440
Scrapy框架的使用之Scrapy入门
接下来介绍一个简单的项目,完成一遍Scrapy抓取流程。通过这个过程,我们可以对Scrapy的基本用法和原理有大体了解。 一、准备工作 本节要完成的任务如下。 创建一个Scrapy项目。 创建一个Spider来抓取站点和处理数据。 通过命令行将抓取的内容导出。 将抓取的内容保存的到MongoDB数据库。 二、准备工作 我们需要安装好Scrapy框架、MongoDB和PyMongo库。 三、创建项目 创建一个Scrapy项目,项目文件可以直接用scrapy命令生成,命令如下所示: scrapy st
崔庆才
2018/06/25
1.4K0
mongodb的基本使用以及pymong的用法
MongoDB 是由 C++ 语言编写的非关系型数据库,是一个基于分布式文件存储的开源数据库系统,其内容存储形式类似 JSON 对象,它的字段值可以包含其他文档、数组及文档数组,非常灵活。
DC童生
2019/11/27
1K0
推荐阅读
相关推荐
Python爬虫从入门到放弃(十六)之 Scrapy框架中Item Pipeline用法
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档