Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >pycharm下的多个python版本共存(一)

pycharm下的多个python版本共存(一)

作者头像
全栈程序员站长
发布于 2022-07-07 05:17:36
发布于 2022-07-07 05:17:36
1.8K0
举报

经历过IDLE,anaconda,和pycharn的编程环境,并进行了一段时间的项目编程后,决定使用pycharm作为以后的工作环境。

一方面因为项目组其他人推荐,另一方面在使用过程中比较顺手。当然很多人也推荐anaconda,这个就看个人喜好了。 随着研究的进展,代码逐渐复杂,也逐渐暴露了原有环境的一些重要问题,

1:多个版本下的python版本不能共存,即使通过改变可执行文件的名字对版本进行区分也会导致pip不能够正常使用的问题,

2:多次安装删除过python后,某些残留的设置对pacharm的使用造成了影响。综上所述,决定对工作环境进行重新搭建。

介绍一下,我的研究方向是图像处理以及机器视觉方向,还涉及到机器学习的相关内容,所以安装的第三方库都是与上述相关的库。

开始

首先,对原有安装的库截图保存。方便搭建环境时重新安装

然后卸载原有python版本,清理环境变量,包括pip

先安装python3.5(机器学习框架还没支持到3.6),并加入到环境变量,可于官网下载。因为用python3多一些,所以默认设置不用改动。这样在命令提示符下就直接打开python3.5.

接下来安装python2.7,将可执行程序重命名为python27,然后手动将python27以及script加入环境变量

这样就可以用python调用python3 用python27调用python2.7了

用pip install 给python3安装第三方包,用python27 -m pip install 给python27安装第三方包(位置都位于script目录下)

至此解决了多版本共存以及两个版本pip安装的问题

接下来在第二部分会记录在pycharm中选择不同版本,并给不同版本安装第三方库的操作

完成。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/113233.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021年10月,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Python大数据之PySpark(六)RDD的操作
from pyspark import SparkConf, SparkContext import re
Maynor
2023/10/08
3920
Python大数据之PySpark(六)RDD的操作
【Spark常用算子合集】一文搞定spark中的常用转换与行动算子
转换算子是spark中的一种操作,用于从一个RDD转换成另一个RDD,它可以被用来创建新的RDD,也可以被用来转换已有的RDD。它们提供了一种通用的方法来完成RDD的转换,如map、filter、groupByKey等。
大数据小禅
2023/01/10
2.7K0
【Spark常用算子合集】一文搞定spark中的常用转换与行动算子
Spark Core快速入门系列(3) | <Transformation>转换算子
  从一个已知的 RDD 中创建出来一个新的 RDD 例如: map就是一个transformation.
不温卜火
2020/10/28
1.9K0
Spark Core快速入门系列(3) | <Transformation>转换算子
Spark之【RDD编程】详细讲解(No2)——《Transformation转换算子》
本篇博客是Spark之【RDD编程】系列第二篇,为大家带来的是RDD的转换的内容。
大数据梦想家
2021/01/27
2K0
Spark之【RDD编程】详细讲解(No2)——《Transformation转换算子》
Spark算子总结
由于计算过程是在内存进行,然后spill出来,每到达一个checkpoint就会将内存中的数据写入到磁盘,这个功能就是手动使其到达checkpoint
vincentbbli
2021/08/18
9220
BigData--大数据分析引擎Spark
(1)zeroValue:给每一个分区中的每一个key一个初始值; (2)seqOp:函数用于在每一个分区中用初始值逐步迭代value; (3)combOp:函数用于合并每个分区中的结果。
MiChong
2020/09/24
1K0
BigData--大数据分析引擎Spark
Python大数据处理扩展库pySpark用法精要
Spark是一个开源的、通用的并行计算与分布式计算框架,其活跃度在Apache基金会所有开源项目中排第三位,最大特点是基于内存计算,适合迭代计算,兼容多种应用场景,同时还兼容Hadoop生态系统中的组件,并且具有非常强的容错性。Spark的设计目的是全栈式解决批处理、结构化数据查询、流计算、图计算和机器学习等业务和应用,适用于需要多次操作特定数据集的应用场合。需要反复操作的次数越多,所需读取的数据量越大,效率提升越大。 Spark集成了Spark SQL(分布式SQL查询引擎,提供了一个DataFrame编
Python小屋屋主
2018/04/16
1.8K0
Pyspark学习笔记(五)RDD的操作
    PySpark RDD 转换操作(Transformation) 是惰性求值,用于将一个 RDD 转换/更新为另一个。由于RDD本质上是不可变的,转换操作总是创建一个或多个新的RDD而不更新现有的RDD,因此,一系列RDD转换创建了一个RDD谱系(依赖图)。
TeeyoHuang
2021/08/18
4.6K0
Pyspark学习笔记(五)RDD的操作
PySpark入门级学习教程,框架思维(上)
为什么要学习Spark?作为数据从业者多年,个人觉得Spark已经越来越走进我们的日常工作了,无论是使用哪种编程语言,Python、Scala还是Java,都会或多或少接触到Spark,它可以让我们能够用到集群的力量,可以对BigData进行高效操作,实现很多之前由于计算资源而无法轻易实现的东西。网上有很多关于Spark的好处,这里就不做过多的赘述,我们直接进入这篇文章的正文!
Sam Gor
2021/04/26
1.7K0
PySpark入门级学习教程,框架思维(上)
Spark算子详解及案例分析(分类助记)
案例来源:http://homepage.cs.latrobe.edu.au/zhe/ZhenHeSparkRDDAPIExamples.html Spark算子大致上可分三大类算子: 1、Value数据类型的Transformation算子,这种变换不触发提交作业,针对处理的数据项是Value型的数据。   2、Key-Value数据类型的Transformation算子,这种变换不触发提交作业,针对处理的数据项是Key-Value型的数据。   3、Action算子,这类算子会触发SparkCont
Albert陈凯
2018/04/04
6.3K0
Spark算子详解及案例分析(分类助记)
3万字长文,PySpark入门级学习教程,框架思维
关于PySpark,我们知道它是Python调用Spark的接口,我们可以通过调用Python API的方式来编写Spark程序,它支持了大多数的Spark功能,比如SparkDataFrame、Spark SQL、Streaming、MLlib等等。只要我们了解Python的基本语法,那么在Python里调用Spark的力量就显得十分easy了。下面我将会从相对宏观的层面介绍一下PySpark,让我们对于这个神器有一个框架性的认识,知道它能干什么,知道去哪里寻找问题解答,争取看完这篇文章可以让我们更加丝滑地入门PySpark。话不多说,马上开始!
Sam Gor
2021/08/13
10.2K0
Transformation 和 Action 常用算子
flatMap(func) 与 map 类似,但每一个输入的 item 会被映射成 0 个或多个输出的 items( func 返回类型需要为 Seq)。
每天进步一点点
2022/07/27
4390
Transformation 和 Action 常用算子
pyspark 内容介绍(一)
pyspark 包介绍 子包 pyspark.sql module pyspark.streaming module pyspark.ml package pyspark.mllib package 内容 PySpark是针对Spark的Python API。根据网上提供的资料,现在汇总一下这些类的基本用法,并举例说明如何具体使用。也是总结一下经常用到的这些公有类的使用方式。方便初学者查询及使用。 Public 类们: SparkContext: Spark 功能的主入口。 RDD: 弹性分布式数
用户1217611
2018/01/30
2.7K0
2018-11-17 Spark算子练习常用Transformation(即转换,延迟加载)通过并行化scala集合创建RDD查看该rdd的分区数量union求并集,注意类型要一致intersecti
###################################################################################################
Albert陈凯
2018/12/14
6650
Spark系列 —— 各类算子详解(一)
本文主要是一篇总结性文章, 将列举绝大部分的 Spark Transformation算子及其使用方法 和一些使用场景。
solve
2019/10/30
1.1K0
Spark RDD 操作详解——Transformations
Spark RDD 支持2种类型的操作: transformations 和 actions。transformations: 从已经存在的数据集中创建一个新的数据集,如 map。actions: 数据集上进行计算之后返回一个值,如 reduce。
李振
2021/11/26
8030
Spark 算子
RDD算子分类,大致可以分为两类,即: Transformation:转换算子,这类转换并不触发提交作业,完成作业中间过程处理。 Action:行动算子,这类算子会触发SparkContext提交Job作业。 一:Transformation:转换算子 1.map map是对RDD中的每个元素都执行一个指定的函数来产生一个新的RDD。任何原RDD中的元素在新RDD中都有且只有一个元素与之对应。 举例: scala> val a = sc.parallelize(1 to 9, 3) scala> val
汤高
2018/01/11
9430
用PySpark开发时的调优思路(上)
这一小节的内容算是对pyspark入门的一个ending了,全文主要是参考学习了美团Spark性能优化指南的基础篇和高级篇内容,主体脉络和这两篇文章是一样的,只不过是基于自己学习后的理解进行了一次总结复盘,而原文中主要是用Java来举例的,我这边主要用pyspark来举例。文章主要会从4个方面(或者说4个思路)来优化我们的Spark任务,主要就是下面的图片所示:(本小节只写了开发习惯调优哈)
Sam Gor
2021/06/25
1.6K0
用PySpark开发时的调优思路(上)
[大数据之Spark]——Transformations转换入门经典实例
Spark相比于Mapreduce的一大优势就是提供了很多的方法,可以直接使用;另一个优势就是执行速度快,这要得益于DAG的调度,想要理解这个调度规则,还要理解函数之间的依赖关系。 本篇就着重描述
用户1154259
2018/01/17
1.2K0
[大数据之Spark]——Transformations转换入门经典实例
Spark常用的算子以及Scala函数总结
上海站 | 高性能计算之GPU CUDA培训 4月13-15日 三天密集式学习 快速带你晋级 阅读全文 > 正文共11264个字,7张图,预计阅读时间28分钟。 Spark与Scala 首先,介绍一
用户1332428
2018/04/17
1.9K0
Spark常用的算子以及Scala函数总结
相关推荐
Python大数据之PySpark(六)RDD的操作
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档