腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
PySpark
: AttributeError:“PipelineModel”对象没有属性“clusterCenters”
、
、
、
、
我用Pypsark创建了一个
kmeans
算法。现在,我还想提取集群中心。我该怎么把它包括在管道里呢?#### model K-Means ### pipeline = Pipeline(stages=[
浏览 0
提问于2020-02-26
得票数 2
回答已采纳
1
回答
如何将<class‘class’_. How .
、
、
、
、
我对Spark完全陌生,目前我正在尝试使用Python编写一段简单的代码,对一组数据执行
KMeans
操作。import
KMeans
, KMeansModelfrom
pyspark
.mllib.linalg import(vdf, k=2, maxIterations=10, runs=10, initializationMode="k-means||") model =
kmeans
.fit
浏览 2
提问于2017-03-02
得票数 5
回答已采纳
1
回答
AttributeError:“”
KMeans
“”对象没有属性“”setK“”
、
、
、
示例: from sklearn.cluster import
KMeans
kmeans
=
KMeans
()\ .setSeed(1) \ .setFeaturesCol((data) 尽管已经实现了拟合,但它还是导致了
Kmeans
属性中的错误。-22-296a7d54514a> in &
浏览 204
提问于2021-02-04
得票数 1
1
回答
如何正确标记原始观测与预测星系团使用
kmeans
在火花?
、
、
我想了解k均值方法在
PySpark
中是如何工作的。[5,5,5],[5,5,5],[1,1,1],[5,5,5]] In [122]: clusters =
KMeans
.train
浏览 3
提问于2017-11-10
得票数 1
回答已采纳
1
回答
不支持数据类型ArrayType(FloatType,false) -collaborative筛选
、
、
、
、
from
pyspark
.sql.types import IntegerTypefrom
pyspark
.ml.featureVectorAssembler(inputCols=["features"], outputCol="features")
kmeans
=
KMe
浏览 21
提问于2017-02-09
得票数 0
3
回答
如何在
pyspark
MLlib中读取csv?
、
、
我有一个csv文件,我想用它作为
KMeans
算法在
pyspark
中的输入。我使用的是MLlib文档中的代码。from
pyspark
.ml.clustering import
KMeans
dataset = spark.read.format("libsvm").load("P.txt") # Trains a k-means
浏览 76
提问于2019-12-21
得票数 0
回答已采纳
2
回答
Pyspark
:在数据帧的不同组上应用
kmeans
、
、
、
使用
Pyspark
,我希望将
kmeans
单独应用于数据框架的组,而不是一次性应用于整个数据框架。目前,我使用了一个For循环,它在每个组上迭代,应用
kmeans
并将结果附加到另一个表。df = assembler.transform(temp_df) while (k < 5 & mtrc < width):
kmeans
=
KMeans
(k=k,seed=5,maxIter=20,initSteps=5)
浏览 0
提问于2017-11-10
得票数 12
2
回答
将
pyspark
算法的结果添加到数据中?
、
、
#Trains a k-means modelmodel =
KMeans
.train(dataset, k) print ("Final centers: " + str(model.clusterCenters
浏览 6
提问于2017-08-15
得票数 0
1
回答
IllegalArgumentException:
kmeans
.fit上的“需求失败”
、
、
、
、
这是我的密码:from
pyspark
.ml.feature import VectorAssembler vecAssembler = VectorAssemblerclust", "v2_clust", "v
浏览 4
提问于2017-05-03
得票数 1
回答已采纳
4
回答
NameError:未定义名称“spark”
、
、
、
、
我正在从官方文档网站复制
pyspark
.ml示例:df = spark.createDataFrame(data, ["features"])model =
kmeans
.fit(df) 但是,
浏览 4
提问于2016-09-16
得票数 32
回答已采纳
3
回答
PySpark
如何找到适当数量的集群
、
、
、
、
在
PySpark
工作时,我也想做同样的事情。我知道,由于星火的分布式特性,
PySpark
的功能有限,但是,有办法得到这个数字吗?我使用下面的代码来绘制肘形图,使用弯头方法从sklearn.cluster导入
KMeans
中找到最优的集群数for i in range(1, 11):
浏览 4
提问于2019-05-30
得票数 4
回答已采纳
2
回答
如何从Spark中的“Set Set Sum of Squared Error”值计算K-means聚类模型的精度?
、
、
我正在与Spark合作,想知道如何获得创建的K-means聚类模型的精确值。同时,检查Spark - KMeansModel API,我发现了"ComputeCost“,它返回”Set Sum of Squared Error“值。或者,在Spark中有其他可用的选项来获得它吗?关于这一点,请给我一些建议。
浏览 0
提问于2018-05-17
得票数 1
1
回答
在Spark ML /
pyspark
中以编程方式创建特征矢量
、
、
、
我想知道如果我有多个数字列的特性,是否有一种简洁的方法在
pyspark
中的DataFrame上运行ML (例如
KMeans
)。, a2=3.5, a3=1.4, a4=0.2, id=u'id_1', label=u'Iris-setosa', binomial_label=1)from
pyspark
.mllib.linalg import Vectors from
pyspark
.
浏览 1
提问于2015-09-16
得票数 24
回答已采纳
0
回答
Spark使用StandardScaler获取实际的集群中心
、
、
、
我使用StandardScaler安装了一个具有缩放功能的
KMeans
。问题是集群中心也是可伸缩的。有没有可能以编程方式获得原始的中心点?import pandas as pdfrom
pyspark
.ml.feature import VectorAssemblerfrom
pyspark
.ml.clustering import
KMean
浏览 0
提问于2017-12-08
得票数 1
回答已采纳
1
回答
在python /
pyspark
中获取k-means质心和异常值
、
、
、
、
有谁知道Python /
PySpark
中的简单算法来检测K-means聚类中的离群值并创建这些离群值的列表或数据帧吗?我不知道如何获得质心。我使用了以下代码: n_clusters = 10 model =
kmeans
.fit(Data.select("
浏览 57
提问于2021-01-08
得票数 1
回答已采纳
1
回答
在ml算法中使用dataframe
、
、
、
我了解到,为了使用ml.clustering
Kmeans
算法(实际上任何ml的algos?)使用dataframe,我需要将我的数据数据以特定的形状:(id,vector[])或类似的东西。这是我的df:from
pyspark
import SparkContext sc = SparkContext(conf=conf)spark = Sp
浏览 2
提问于2016-11-28
得票数 3
3
回答
pyspark
:使用spark-ml和spark数据帧创建k-means聚类模型
、
、
、
、
pandas_df = pd.read_pickle('df_features.pickle')from
pyspark
.ml.clustering import
KMeans
modela =
kmeans
.fit=
KM
浏览 2
提问于2016-09-17
得票数 0
2
回答
AttributeError:“”DataFrame“”对象没有属性“”map“”
、
、
、
、
我想使用以下代码将spark数据帧转换为要添加的内容:spark_df = sqlContext.createDataFrame(pandas_df)model =
KMeans
.trainimport
KMeans
2 spark_df = sqlContext.create
浏览 1
提问于2016-09-16
得票数 44
回答已采纳
2
回答
在mllib
kmeans
中获取集群标签
、
、
、
、
当我在
pyspark
中使用Spark的mllib时,如何获得集群标签?在滑雪板上,这可以很容易地通过temp=
kmeans
.fit(data)在mllib中,我将
kmeans
运行为: temp =
KMeans
.train(data, k, maxIterations=10, runs=10, initializationMode这个类没有
浏览 3
提问于2016-03-31
得票数 4
回答已采纳
1
回答
Spark在EC2实例上运行K均值时出现Java堆空间错误
、
、
示例数据和代码在我的上from
pyspark
.mllib.featureimport HashingTFfrom numpy import arrayimport json from
浏览 0
提问于2015-06-17
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Kmeans算法
PySpark数据分析基础:PySpark原理详解
pyspark 安装
PySpark调优
PySpark安装+Jupyter Notebook配置
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券