如何获得sparkR分类中的性能矩阵,如F1评分、精度、回忆、混淆矩阵df <- read.df("data/mllib/sample_libsvm_data.txtsource = "libsvm") testing <- df
# Fit a random forest classification model with spark.randomForestmodel <
在处理分类问题时,我可以加载所有的算法,如线性算法、逻辑算法、knn算法、随机林算法和增强分类器,这些算法都是通过一次热编码或类似的从分类到数值的变换来完成的。但是,在运行像随机森林和决策树这样的算法时,没有从分类到数值的任何转换,我面临的错误是“ValueError:无法将字符串转换为浮动.”
我正在尝试一个基本的模式,没有任何变化,请指导。import met
我的数据中有96个变量。我想用Boruta()函数发现的重要变量来拟合logistic回归。40个不重要的变量,这就变得不可行了。-unimportant, data = df, family = binomial)我可以用向量从模型中排除变量吗?如果是这样,我如何从boruta输出中提取不重要的变量,以便能够同时排除多个变量?
有更好的方法吗?我试图在网上找到一种方法来做到这一点,但我只看到了排除几个变