腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在线机器
学习
资源
、
、
我想知道是否有关于“在线机器
学习
”
的
书籍/文章/教程?例如,这个网站在一些方面有很好
的
课堂讲稿(来自lec16):https://web.eecs.umich.edu/~jabernet/eecs598course/fall2015/web/。或者这本书: https://ii.uni.wroc.pl/~lukstafi/pmwiki/uploads/AGT/Prediction_<
浏览 0
提问于2021-11-15
得票数 2
回答已采纳
1
回答
TPE (来自Optuna)是否考虑了试验
的
数量?
、
、
我正在使用optuna
的
TPE采样器来
优化
深度
学习
视觉模型
的
超参数。我想知道optuna是否适应搜索取决于试验
的
数量。我对TPE
的
工作
原理
只有基本
的
了解。 谢谢。
浏览 4
提问于2020-08-06
得票数 1
2
回答
在使用scikit
学习
优化
超参数时,是否有可能修复验证集?
、
我有一个问题,在科学
学习
中
的
超参数
优化
。我
最
熟悉tensorflow,您首先将数据分成三组:训练、验证和测试。利用训练集和验证集对超参数进行
优化
,最后用测试集对模型进行评估。所有数据都是使用来自测试集
的
统计信息进行规范化
的
,据我所理解,这背后
的
原理
是,模型没有“看到”来自验证和测试
的
数据,因此不能以任何方式使用它们
的
统计数据。不管怎么说,我
的
问题
与
科学工具箱中<e
浏览 0
提问于2021-04-16
得票数 0
2
回答
强化
学习
类似于随机梯度下降吗?
、
、
、
不是严格
的
数学公式,但是,这两种
优化
方法会有什么关键
的
重叠原则吗?例如,如何 对于国家,行动和奖励
的
例子为RL?我理解强化
学习
是指:(a)
学习
如何做,如何将情况描绘成行动;(b)从互动中
学习
,以及在这种情况下,从所有可能
的
行动/奖励中获得“有监督
的<
浏览 0
提问于2021-11-24
得票数 0
回答已采纳
3
回答
机器
学习
的
非预测应用
Prediction似乎是machine learning
的
主导主题。大多数
算法
都有fit和predict函数,因此可以建立模型,从新
的
特征集中预测结果或其他感兴趣
的
参数。机器
学习
的
non-prediction applications是什么?
浏览 0
提问于2018-11-05
得票数 0
回答已采纳
1
回答
关于梯度下降函数有没有比较通俗易懂
的
解释?
、
、
、
、
人工智能领域应用
的
基础
算法
,属于离散函数?
浏览 123
提问于2023-12-04
1
回答
学习
速度和梯度下降差?
、
、
、
、
两者之间
的
区别是什么?,这两个发球达到了一个函数
的
最小点(较低
的
损失)。lr和梯度有什么区别? 谢谢
浏览 5
提问于2019-10-07
得票数 0
回答已采纳
2
回答
什么是热切/贪婪搜索
的
对立面?
因此,一个急切
的
搜索是你采取一个初步
的
解决方案,即使一个更好
的
解决方案就在这条路上。有这样
的
术语吗?
浏览 4
提问于2012-10-19
得票数 8
2
回答
避免被机器
学习
压倒
的
策略
、
短版:尽管读了很多书,机器
学习
仍然感觉像一只黑暗中
的
猴子。有什么建议吗?我必须选择
算法
:这是我通常发现
的
最
直接
的
部分; 对于上述<
浏览 0
提问于2018-03-09
得票数 4
回答已采纳
3
回答
我应该用哪种机器
学习
来解决
优化
问题?
我有一个问题,我想应用机器
学习
。为此目的,我一直在
学习
这个主题,并遇到了监督
的
,无监督
的
,半监督
的
机器
学习
技术。基本上,我们要
优化
利润,我们可以选择调整某些参数。举个例子,假设我们想要ML
算法
来找到能够
优化
利润
的
产品
的
价格。 我能在这里申请什么样
的
ML?您有推荐
的
框架吗?通过这个具体
的
算法
,我们试图找出一个给定订单
的</
浏览 0
提问于2018-07-26
得票数 1
3
回答
Q
学习
vs动态编程
、
、
、
经典
的
Q
学习
算法
,使用查找表(而不是函数近似),等同于动态编程吗?
浏览 5
提问于2016-08-17
得票数 11
回答已采纳
1
回答
仅对数据进行策略梯度,不使用仿真器
、
、
、
、
对我
的
团队来说,模仿代理(执行操作和评估奖励)成本太高了,这意味着我们唯一
的
选择就是在数据集上
学习
最优策略。好
的
是我们有大量
的
数据,这代表了一系列
的
状态,行动,奖励。我们可以对我们
的
特工进行数据培训。 我们还需要持续
的
行动,因为这套行动是很大
的
。因此,策略梯度是可行
的
,但它通常使用需要仿真器
的
参与者-评论家。我们不能效法,其他
的
选择是什么?
浏览 0
提问于2018-04-13
得票数 1
1
回答
OpenGL计算着色器与与Cuda/OpenCL等
的
性能差异
、
、
而库达
的
表现更好只是因为nvidia希望如此。我还读过图形api
的
计算着色器不如OpenCL/cuda好。我不明白计算着色器
与
Cuda/OpenCL有什么不同,为什么它们会慢(如果是)。使用OpenGL计算着色器会有性能上
的
影响吗? Vulkan计算着色器会比OpenGL
的
性能更好吗?
浏览 0
提问于2021-03-15
得票数 2
回答已采纳
2
回答
强化
学习
算法
、
我想用强化
学习
机器
学习
的
方法来研究和开发一些应用。我已经熟悉使用监督
学习
的
分类问题。谢谢!
浏览 0
提问于2021-11-15
得票数 0
回答已采纳
1
回答
在处理动态交通系统分析任务时,如何提高
优化
问题?
浏览 127
提问于2022-08-24
回答已采纳
1
回答
机器
学习
中
的
知识
、
由于最小均方是
与
神经网络拓扑相结合
的
一个非常流行
的
选择,那么最常见
的
机器
学习
算法
(也是
最
容易与核最小均方相结合
的
算法
)是什么?
浏览 0
提问于2020-07-08
得票数 2
1
回答
优化
算法
与
强化
学习
方法
的
区别
我有一种感觉,强化
学习
的
一步任务本质上
与
一些
优化
算法
是相同
的
。那么,我想知道对于1步强化
学习
问题,它实际上是一种
优化
方法
浏览 2
提问于2019-12-19
得票数 1
3
回答
什么时候使用什么机器
学习
、
最近,在来自UPC/巴塞罗那
的
Oriol Pujol教授
的
机器
学习
课程中,他描述了用于广泛
的
机器
学习
相关任务
的
最常见
的
算法
、
原理
和概念。集合
学习
理论;增强;套袋;堆叠如何创建新功能
浏览 0
提问于2015-01-20
得票数 40
4
回答
人工智能编译器
、
、
、
如果有可能的话我能想象到- 如果是可能
的
,是否有任何关于这个主题
的
研究项目?
浏览 8
提问于2010-08-11
得票数 22
回答已采纳
1
回答
Google
的
深层思维使用哪种策略梯度方法来教AI走路
、
、
、
、
我刚在Youtube上看到了这
的
视频。是DDPG还是D4PG还是什么?
浏览 0
提问于2021-04-10
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
“好串”求解算法优化原理与Python实现
机器学习必读新书-《凸优化算法原理详解》免费pdf分享
机器学习的算法及原理
SlopeOne 原始算法、优化算法的原理及应用
YOLO算法的原理与实现
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券