腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1494)
视频
沙龙
1
回答
训练
具有
负
似
然
性
的
神经网络
进行
回归
、
、
我正在尝试使用
负
似
然
函数来
训练
简单
的
前馈
神经网络
,以估计
回归
任务
的
不确定性。我
的
神经网络
将均值和方差输出为两个标签,我编写了自定义损失函数,如下所示: def nll_loss(y_true, y_pred): mean = y_predoutput) m
浏览 11
提问于2021-01-15
得票数 0
2
回答
Logistic
回归
与最优参数w
、
当我学习Logistic
回归
时,我们用
负
对数
似
然
法对参数w
进行
优化。有一种说法是:,当
训练
样本线性分离时,最优w
的
大小可以达到无穷大。我很困惑: 1.最优w
的
大小是什么? 2.你能解释为什么w可以无限大吗?
浏览 2
提问于2014-09-20
得票数 1
2
回答
如何利用极大
似
然
原理
训练
神经网络
我经常偶然发现论文说
神经网络
是用最大
似
然
原理
训练
的
。我想我一般都明白什么是最大可能
性
。但我很难理解如何把它应用到
神经网络
训练
中。 如何利用最大
似
然
原理
训练
神经网络
?
浏览 0
提问于2018-01-04
得票数 6
1
回答
负
对数
似
然
不等于交叉熵?
、
负
对数
似
然
可以乘以\frac{1}{m},现在我
的
问题来了:我正在读
的
这本书(古德费罗等人
的
深度学习)提到了使用
负
日志
似
然
(如一致
性
)
的
几个吸引人
的
特性。同时,它还直接使用交叉熵作为最大
似
然</em
浏览 0
提问于2021-05-06
得票数 2
回答已采纳
1
回答
什么交叉熵或
负
对数
似
然
足以停止
训练
?
、
我使用代价函数作为交叉熵或
负
对数
似
然
函数来
训练
神经网络
。在什么函数值下,我可以认为是时候停止
训练
了,结果是好
的
?
浏览 0
提问于2015-11-19
得票数 0
2
回答
最大
似
然
估计与梯度下降
的
关系
、
MLE (用于寻找logistic
回归
的
最佳参数)和梯度下降之间
的
异同是什么?
浏览 0
提问于2022-01-03
得票数 1
1
回答
在xgboost泊松运行中nloglisilies值背后
的
直觉
、
、
、
当我使用count:poisson而不是rmse时,我看到
的
是nloglikelihood值。现在我不确定如何将这些数字与rmse或mae
进行
比较。当然值越小越好..但没有得到我们在rmse或Mae中得到
的
实际错误直觉。
浏览 0
提问于2017-03-22
得票数 0
2
回答
为什么使用sigmoid函数来确定后验概率?
、
、
我正在尝试用Java实现一个
神经网络
。我在学习
神经网络
时,在我
的
机器学习课本中遇到了这个问题:The output of the sigmoid function may be interpreted as the posterior pro
浏览 2
提问于2014-02-26
得票数 2
1
回答
统计模型OLS
回归
:对数
似
然
、使用和解释
、
、
我使用python
的
statsmodel包来
进行
线性
回归
。在R^2、p等
的
输出中也存在“对数
似
然
”.在文档中,这被描述为“拟合模型
的
似
然
函数
的
值”。我看了一下源代码,并不真正理解它在做什么。阅读更多关于
似
然
函数,我仍然有非常模糊
的
想法,这个‘对数-
似
然
’值可能意味着什么,或被用来。所以有几个问题: 在线性
回归</em
浏览 1
提问于2014-10-23
得票数 2
回答已采纳
1
回答
sci学习朴素贝叶斯分类器
的
损失/风险函数
、
我想知道是否有可能在scikit-learn中为朴素
的
Bayes分类器定义损失函数。例如,让我们假设我们对垃圾邮件和火腿分类感兴趣。在这种情况下,这样
的
损失函数将有助于降低假阳性率(即将火腿归类为垃圾邮件,这比将垃圾邮件分类为火腿“更糟”)。 为了简单起见,我有一个使用来自高斯
的
随机数据
的
例子。
浏览 0
提问于2014-08-30
得票数 2
回答已采纳
2
回答
如何通过在交叉熵中添加
负
熵来创建自定义损失函数?
、
、
、
、
我最近读到了一篇题为"REGULARIZING NETWORKS BY PENALIZING OUTPUT DISTRIBUTIONS https://arxiv.org/abs/1701.06548"“
的
论文作者讨论了通过向
负
对数
似
然
添加
负
熵项来惩罚低熵输出分布以及为模型
训练
创建自定义损失函数来对
神经网络
进行
正则化。 ? 值β控制置信度惩罚
的
强度。我已经为分类交叉熵
浏览 33
提问于2021-08-24
得票数 5
回答已采纳
3
回答
当MLE不能给出一个确定
的
解时,为什么要考虑它在Logistic
回归
中
的
作用?
、
、
如果极大
似
然
估计( MLE )不能给出Logistic
回归
中参数
的
适当闭型解,为什么这种方法会有如此多
的
讨论呢?为什么不坚持梯度下降来估计参数呢?
浏览 0
提问于2022-05-04
得票数 2
回答已采纳
3
回答
MSE损失与交叉熵损失
的
收敛
性
比较
、
、
、
、
对于一个目标向量0,0,0,....0和预测向量0,0.1,0.2
的
简单分类问题,....1
的
交叉熵损失会更好/更快地收敛,还是MSE损失?当我绘制它们时,在我看来,MSE损失有一个较低
的
误差范围。例如,当我
的
目标为1,1,1,1.1时,我得到以下信息:
浏览 0
提问于2018-03-16
得票数 3
回答已采纳
1
回答
如何计算FPR?
如何计算没有标签
的
句子
的
FPR? FPR和可能
性
之间有什么关系吗?
浏览 0
提问于2023-02-26
得票数 0
回答已采纳
1
回答
什么时候
神经网络
更好
的
“传统”模型,如决策树和套索?
、
、
、
研究线性模型(高斯、指数、卡方、F-分布等)
的
一致
性
、效率、鲁棒
性
、蓝色、无偏
性
等问题,是一种基于微积分
的
统计推理理论.构成
回归
模型。 什么时候
神经网络
比这些传统
的
基于
回归
分析
的
微积分模型更好?有没有一个完整
的
数学理论,包括健壮
性
,robustness
的
东西,一致
性
,对他们
的
充分奉献,像Wackerly/HOFF这样的
浏览 0
提问于2018-12-23
得票数 0
回答已采纳
1
回答
glm:如何计算新数据
的
logLik?
、
我在R中使用glm应用了逻辑
回归
,如下所示:现在我想计算在给定model
的
情况下观察我
的
测试数据
的
对数
似
然
,这样我就可以看到它是否比其他模型做得更好。在给定模型
的
情况下,计算观察
训练
数据
的
对数
似
然
--这正是在模型拟合期间最大化<e
浏览 8
提问于2019-10-22
得票数 1
1
回答
发电机在SeqGAN中预
训练
多长时间?
、
、
我正在阅读关于SeqGAN
的
文章,我试图更好地理解
训练
前
的
步骤。作者声称,他们希望通过在数据集上对生成器
进行
预
训练
来最大化数据集上
的
最大
似
然
估计(见下面的伪码)。这是通过最小化序列上
的
负
对数
似
然
来实现
的
。然而,从文件和代码来看,我不清楚他们选择了什么停止标准来
进行
培训。当然,他们有一个预先设定
的
几集
的
模式运行,
浏览 0
提问于2022-10-11
得票数 0
1
回答
在
神经网络
中,平方误差之和从何而来?
、
训练
一个基本
的
多层感知器
神经网络
,归结为最小化某种误差函数。通常,平方错误之和被选择为此错误函数,但该函数来自何处?我不知道他这么说是什么意思。在
神经网络
环境下,平方误差之和与最大
似
浏览 0
提问于2015-05-22
得票数 3
1
回答
双峰时间序列预测:“向上或向下,但不是横向”--什么是最好
的
建模方法?
、
、
、
、
如果模型被
训练
成预测均值和方差(即单峰高斯分布),这就告诉我们模型
的
置信度,但仍然不够。📷自信下降趋势=平均
负
,方差小向上或向下但不是横向=平均值零,方差高这是不好
的
,因为“向上或向下,我在这里看到
的
一个复杂问题是:高斯人不能被扭曲。必须有更好、更灵活
的
分配。我想到
的
另一种方法是在N类上使用softmax,对分布
进行
离散化。(即
浏览 0
提问于2021-09-02
得票数 0
回答已采纳
1
回答
澄清用于时间序列预测
的
统计模型AutoReg()、ARMA()和SARIMAX()
我正在使用scikit learn
的
LinearRegression()建立我
的
第一个时间序列预测模型。我还遇到了统计模型AutoReg()、ARMA()和SARIMAX()。不幸
的
是,从文献中我找不到考虑它们
的
方法。它们是LinearRegression()
的
替代品吗?他们是ML吗?它们有根本
的
不同吗? 如果能给我点提示,我会很感激
的
。谢谢。
浏览 30
提问于2021-05-14
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Word embedding系列(二):word2vec详解
谈Softmax激活函数以及Softmax回归和Logistic回归关系
深度神经网络的正向传播与反向传播
蜗壳机器学习指南:逻辑斯特回归
逻辑回归
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券