首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >kNN与Logistic回归

kNN与Logistic回归
EN

Data Science用户
提问于 2019-10-12 06:13:16
回答 2查看 3K关注 0票数 0

你好,我把这个问题设为任选作业,并想征求一些意见。

假设一个人取一个数据集,将其分成训练和测试数据集,然后尝试两种不同的分类过程。首先采用logistic回归方法,对训练数据和测试数据的误差率分别为20%和30%。接下来,他们使用1近邻,平均错误率(在测试和训练数据集上的平均错误率)为18%。根据这些数字,你更喜欢哪种方法用于分类目的(新的观测)?为什么?

我倾向于说kNN,因为它是一种相当灵活的方法,平均提供了一个较低的错误。但这听起来不够正式,可能是一个有缺陷的、天真的结论。有意见吗?

EN

回答 2

Data Science用户

发布于 2019-10-12 07:23:01

提示:在任何训练集上,一个最近邻的错误率是多少?

从此,确定此数据集上的测试错误。

票数 1
EN

Data Science用户

发布于 2019-11-11 09:18:54

K-最近_邻居维基

当训练数据集的大小接近无穷大时,最近邻分类器保证错误率不超过Bayes错误率的两倍(在数据分布的情况下,最小可达错误率)。

我不喜欢他们没有给出两者在KNN中的错误率,他们给出了平均错误率。这让我想到,如果训练数据的准确率为95%,但测试的准确性很差,那么两者的平均误差都是18%。

也许他们想让你认为30-20=10 10*2=20 20>18

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/61639

复制
相关文章
logistic回归与cox回归的区别
logistic回归与线性回归并成为两大回归。logistic回归解释起来直接就可以说,如具有某个危险因素,发病风险增加多少倍,听起来让人通俗易懂,线性回归相比之下其实际意义就弱了。
水煮麥楽雞
2022/11/20
2.3K0
Logistic回归
首先,在引入LR(Logistic Regression)模型之前,非常重要的一个概念是,该模型在设计之初是用来解决0/1二分类问题,虽然它的名字中有回归二字,但只是在其线性部分隐含地做了一个回归,最终目标还是以解决分类问题为主。
@小森
2024/05/24
850
Logistic回归
logistic回归
Logistic回归虽然名字叫”回归” ,但却是一种分类学习方法。使用场景大概有两个:第一用来预测,第二寻找因变量的影响因素。 
用户1680321
2020/07/21
7780
Logistic回归
一般约定,x的上标(i)表示第i个样本;在矩阵中表示样本,通常将样本各个维度的特征写成列向量,一列就是一个样本的各个特征。 那么Y矩阵就是一个1*m矩阵,m是样本数目。还约定n_x为X中样本特征的维度。在python里的表示为
Sarlren
2022/10/28
4260
[机器学习实战札记] Logistic回归
这段时间里,我一直在尝试将open_nsfw加入到手机,给手机浏览器增加色情图片检测功能,这个分阶段进行,在前面的几篇文章中,都谈到了这方面的尝试:
云水木石
2019/07/02
6080
[机器学习实战札记] Logistic回归
Logistic回归与梯度下降法
http://blog.csdn.net/acdreamers/article/details/44657979
bear_fish
2018/09/19
5730
Logistic回归与梯度下降法
理解 logistic 回归
logistic回归由Cox在1958年提出[1],它的名字虽然叫回归,但这是一种二分类算法,并且是一种线性模型。由于是线性模型,因此在预测时计算简单,在某些大规模分类问题,如广告点击率预估(CTR)上得到了成功的应用。如果你的数据规模巨大,而且要求预测速度非常快,则非线性核的SVM、神经网络等非线性模型已经无法使用,此时logistic回归是你为数不多的选择。
SIGAI学习与实践平台
2018/09/14
2.9K0
理解 logistic 回归
python logistic回归
常用的分类与预测算法 回归分析 决策树 人工神经网络 贝叶斯网络 支持向量机 其中回归分析包括: 线性回归---自变量因变量线性关系,最小二乘法求解。 非线性回归--自变量因变量非线性关系,函数变换为线性关系,或非线性最小二乘方法求解。 logistic回归--因变量一般有1和0两种取值,将因变量的取值范围控制再0-1范围内,表示取值为1的概率。 岭回归--要求自变量之间具有多重共线性,是一种改进最小二乘法的方法。 主成分回归--要求自变量之间具有多重共线性,是对最小二乘法的方法的改进,可以消除自变量间的多
用户1359560
2018/08/27
1.3K0
python logistic回归
logistic regression 逻辑回归与numpy实现
文章目录 逻辑回归 logistic regression numpy 复现 逻辑回归 logistic regression 密度函数f(x)和分布函数F(x),函数图像 实践的几率:是指时间发生的概率与事件不发生的概率的比值.事件发生的概率是P,几率 image.png 该事件的对数几率: image.png numpy 复现 # -*- coding:utf-8 -*- # /usr/bin/python from math import exp import numpy as
AI拉呱
2021/12/15
7530
logistic regression 逻辑回归与numpy实现
线性回归回顾与logistic回归 | 机器学习笔记
01 再看线性回归 之前我们选择线性回归的时候,只是认为那些数据看上去很符合线性的样子,选择最小平方损失函数的时候,也是直接提出来的,没有考虑过为什么会是这个样子。接下来就从概率的角度来解释这些问题。
用户1332428
2018/03/08
1.2K0
线性回归回顾与logistic回归 | 机器学习笔记
机器学习-Logistic回归(Logistic Regression)案例
不要被它的名字弄糊涂!它是一种分类而非回归算法。它用于根据给定的自变量集估计离散值(二进制值,如0/1,yes/no,true/false)。简单来说,它通过将数据拟合到logit函数来预测事件发生的概率。因此,它也被称为logit回归。由于它预测概率,因此其输出值介于0和1之间(如预期的那样)。
XXXX-user
2019/09/17
3.7K0
机器学习-Logistic回归(Logistic Regression)案例
logistic回归建模指南
昨天的logistic回归:从生产到使用【上:使用篇】(在微信公众号“数说工作室”中回复“logit1”查看),有不少数说网友们建议把最后的建模指南图单独发一下。 另外对logistic的拟合原理(涉
数说君
2018/03/28
7990
logistic回归建模指南
逻辑回归(Logistic Regression)
逻辑回归(Logistic Regression)是一种用于解决二分类问题的统计学习方法,其输出结果表示了某个事件发生的概率。以下是关于逻辑回归的详细解释:
jack.yang
2025/04/05
2850
逻辑回归(Logistic Regression)
逻辑回归 – Logistic regression
逻辑回归(Logistic Regression)主要解决二分类问题,用来表示某件事情发生的可能性。
easyAI
2019/12/18
1.4K0
逻辑回归 – Logistic regression
logistic回归建模指南
本图包括建模思路和相应的模型SAS代码,可以点击查看大图,转载请保留版权:
数说君
2018/03/28
6690
logistic回归建模指南
理解Logistic回归算法原理与Python实现
本文介绍了逻辑回归算法的基本原理和实现,并通过实例演示了如何使用逻辑回归算法进行二元分类。同时,还介绍了如何利用Python中的sklearn库来实现逻辑回归算法,以及使用该算法对鸢尾花数据集进行分类。
chaibubble
2018/01/02
1.6K0
理解Logistic回归算法原理与Python实现
对数几率回归 —— Logistic Regression
首先,在引入LR(Logistic Regression)模型之前,非常重要的一个概念是,该模型在设计之初是用来解决0/1二分类问题,虽然它的名字中有回归二字,但只是在其线性部分隐含地做了一个回归,最终目标还是以解决分类问题为主。
IT派
2018/07/30
9660
对数几率回归 —— Logistic Regression
R语言与机器学习(分类算法)logistic回归
由于我们在前面已经讨论过了神经网络的分类问题,如今再从最优化的角度来讨论logistic回归就显得有些不合适了。Logistic回归问题的最优化问题可以表述为:寻找一个非线性函数sigmoid的最佳拟合参数,求解过程可使用最优化算法完成。它可以看做是用sigmoid函数作为二阈值分类器的感知器问题。 今天我们将从统计的角度来重新考虑logistic回归问题。 一、logistic回归及其MLE 当我们考虑解释变量为分类变量如考虑一个企业是否会被并购,一个企业是否会上市,你的能否考
机器学习AI算法工程
2018/03/12
3.1K0
R语言与机器学习(分类算法)logistic回归
机器学习(4)——逻辑回归Logistic回归softmax回归
前言:这里是分类问题,之所以放到线性回归的下面介绍,是因为逻辑回归的步骤几乎是和前面一样的,写出目标函数,找到损失函数,求最小值,求解参数,建立模型,模型评估。分类算法,概率模型,返回的是属于这类模型
DC童生
2018/04/27
1.7K0
机器学习(4)——逻辑回归Logistic回归softmax回归
6 逻辑回归(Logistic Regression)
6 逻辑回归(Logistic Regression) 6.1 分类(Classification) 6.2 假设函数表示(Hypothesis Representation) 6.3 决策边界(Decision Boundary) 6.4 代价函数(Cost Function) 6.5 简化的成本函数和梯度下降(Simplified Cost Function and Gradient Descent) 6.6 进阶优化(Advanced Optimization) 6.7 多类别分类: 一对多(Multiclass Classification: One-vs-all) 7 正则化(Regularization) 7.1 过拟合问题(The Problem of Overfitting) 7.2 代价函数(Cost Function) 7.3 线性回归正则化(Regularized Linear Regression) 7.4 逻辑回归正则化(Regularized Logistic Regression)
用户2188327
2020/07/02
7820
6 逻辑回归(Logistic Regression)

相似问题

Logistic回归与SVM

20

logistic回归与二元logistic回归的差异

10

Logistic回归-优势比与概率

10

SVM与Logistic回归的差异

20

Logistic回归预测

10
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档