首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏视觉求索无尽也

    经验】图像分类模型的经验前言经验与我交流

    经验 模型选择 通常我会使用一个简单的CNN模型(这个模型一般包含5个卷积层)将数据扔进去训练跑出一个baseline,这一步工作主要是为了验证数据集的质量。 超参数的选择 是项技术活,调得好CVPR,不好下海搬砖。

    2.4K20发布于 2018-12-04
  • 来自专栏大数据学习与研究

    druid

    10000000000000},{"path":"/data4/druid/var/druid/segment-cache","maxSize":10000000000000},{"path":"/data5/

    60540编辑于 2022-02-22
  • 来自专栏全栈程序员必看

    Prophet

    本篇主要讲解实际运用中Prophet的主要步骤以及一些本人实际经验。 二 参数优实战 目前实际生产中,时序模型的训练往往是数量惊人,因此如果依靠以往的指标和经验以不大可行,所以只能采用机器寻的方式。福布湿在这里给大家介绍下常用的网格寻。 在之前,最重要的是要确定好模型的评价指标。Prophet中内置的评价指标有传统的mse、rmse、mae、mape、coverage。 (当然如果使用2分法一组组参数,麻烦是麻烦了点,但是速度肯定快不少)。 因此如果想训练出一个好的模型,数据和很重要,但更重要的对算法原理的充分理解并根据实际情况改进算法,从而让模型效果达到一个新的台阶。

    2.8K10编辑于 2022-07-04
  • 来自专栏SAMshare

    Machine Learning-模型评估与 ——曲线

    axis=1) 16plt.plot(train_sizes, train_mean, 17 color='blue', marker='o', 18 markersize=5, train_sizes, test_mean, 24 color='green', linestyle='--', 25 marker='s', markersize=5, 绘制验证曲线得到超和准确率关系 验证曲线是用来提高模型的性能,验证曲线和学习曲线很相近,不同的是这里画出的是不同参数下模型的准确率而不是不同训练集大小下的准确率: 1from sklearn.model_selection 1) 14plt.plot(param_range, train_mean, 15 color='blue', marker='o', 16 markersize=5, param_range, test_mean, 21 color='green', linestyle='--', 22 marker='s', markersize=5,

    93510发布于 2019-08-22
  • 来自专栏杨熹的专栏

    LightGBM 如何

    本文结构: 什么是 LightGBM 怎么 和 xgboost 的代码比较 ---- 1. 怎么 下面几张表为重要参数的含义和如何应用 Control Parameters 含义 用法 max_depth 树的最大深度 当模型过拟合时,可以考虑首先降低 max_depth min_data_in_leaf categorical_features 类似,只不过不是将特定的列视为categorical,而是完全忽略 save_binary 这个参数为 true 时,则数据集被保存为二进制文件,下次读数据时速度会变快 ---- ,在大型数据集时就设置为数百或数千 max_depth 这个也是可以限制树的深度 下表对应了 Faster Speed ,better accuracy ,over-fitting 三种目的时,可以的参数 (0,9769): if ypred2[i] >= .5: # setting threshold to .5 ypred2[i] = 1 else:

    4K41发布于 2018-06-19
  • 来自专栏Datawhale专栏

    Deep learning经验

    ,如果value超过了阈值,就算一个衰减系系数,让value的值等于阈值: 5,10,15 dropout对小数据防止过拟合有很好的效果,值一般设为0.5,小数据上dropout+sgd在我的大部分实验中

    68942发布于 2019-11-23
  • 来自专栏智能算法

    深度学习如何

    这种活也有两年时间了. 我的回答可能更多的还是侧重工业应用, 技术上只限制在CNN这块. 先说下我的观点, 就是trial-and-error. 没有其他捷径可以走. 唯一的区别是有些人盲目的尝试, 有些人思考后再尝试.快速尝试, 快速纠错这是的关键. ◆ 首先说下可视化 我个人的理解, 对于可视化, 更多的还是帮助人类以自己熟悉的方式来观察网络. 因为, 你是不可能边观察网络, 还边的. 你只是训练完成后(或者准确率到达一个阶段后), 才能可视化. 但是具体怎么是没辙的. 第一, 你不可能告诉网络, 这层你得学个边界检测的功能出来. 当然如果你使用大的filter, 一般5x5往上, 运气不差的话, 你是可以看到smooth的结果的.

    74440发布于 2018-06-04
  • 来自专栏粽子的深度学习笔记

    自动神器NNI

    尝试了几款神器后,还是选择了一款微软出的一款神器NNI . 除了各方面性能都挺好之外,完备的官方文档也是一个值得选择的原因。另外,weight & bias 也是一款比较优秀的神器。 NNI (Neural Network Intelligence)是一个轻量但强大的工具包,帮助用户自动的进行特征工程,神经网络架构搜索,超优以及模型压缩。 local # 本地 服务器 searchSpacePath: search_space.json #choice: true, false useAnnotation: false tuner: # 器 codeDir: . # gpuNum: 1 localConfig: useActiveGpu: true 注意各个文件路径 ---- 第三步:修改 Trial 代码来从 NNI 获取超, monitor the status of running experiments 4. nnictl log stderr show stderr log content 5.

    1.9K30发布于 2021-07-07
  • 来自专栏智能算法

    深度学习如何

    这种活也有两年时间了. 我的回答可能更多的还是侧重工业应用, 技术上只限制在CNN这块. 先说下我的观点, 就是trial-and-error. 没有其他捷径可以走. 因为, 你是不可能边观察网络, 还边的. 你只是训练完成后(或者准确率到达一个阶段后), 才能可视化. 但是具体怎么是没辙的. 第一, 你不可能告诉网络, 这层你得学个边界检测的功能出来. 当然如果你使用大的filter, 一般5x5往上, 运气不差的话, 你是可以看到smooth的结果的. 5.

    62840发布于 2018-10-23
  • 来自专栏人工智能头条

    详解TensorBoard如何

    下面是一个普通的 convolutional 网络结构,我们全文会在这个结构上进行优: ? 这是初级的代码: ? 先来看一下它的训练结果: ? 接下来将分为以下几步: step 1: 查看 graph 结构 step 2:查看 accuracy,weights,biases step 3: 修改 code step 4: 选择最优模型 step 5: 现在发现 model 基本训练的不错了 Step 4: 选择最优模型 接下来 tf 还可以进行 可以看不同版本的 model 在 训练不同的 variable 时哪个更好。 我们可以看到 1 识别的比较好,但是在 3,5,8 上面遇到了一些困难,因为它们看起来有点相近, ? ,据说后面 TensorFlow 会推出更炫的而且更专业的可视化功能,例如语音识别的,有了这种可视化的功能,最需要精力的优环节也变得更有趣了。

    69530发布于 2018-07-20
  • 来自专栏全栈程序员必看

    图文详解PID

    文章目录 图文详解PID 一、什么是PID 1. 比例系数 2. 积分系数 3. 微分系数 二、PID调节方式 1.PI系统调节 2.PD系统调节 3.PID系统调节 图文详解PID 读完本篇文章你的收获: PID三个参数基本概念 了解如何调节PID 认识一个经常咕咕咕的博主 但大多数情况下PID三个参数并不是都使用上的,一般会其中两个来组合使用,比如PI组合用于追求稳定的系统,PD组合用于追求快速响应的系统,当然PID用于即追求稳定又追求快速响应的系统,但是实际上PID参数越多越难, 主要原因是我这里使用的是小车轮子来做的速度PID,而PD的应用场合主要是大惯性系统中,这里的应用场景不适合,但也能看出一定效果 如果D调节的过大之后,反倒会放大系统趋势的影响,使系统出现震荡,难以稳定,如下D=5 3.PID系统调节 在讲了PI和PD系统的调节方式后,下面分享一下PID系统的调节方式,首先我们先按照PI系统进行调节,先调P在I,让系统有一定的过冲后达到稳定,如下图: 在出现了上面的 PI 波形之后

    15.2K13编辑于 2022-09-06
  • 来自专栏深度学习和计算机视觉

    Deep Learning 经验

    ,如果value超过了阈值,就算一个衰减系系数,让value的值等于阈值: 5,10,15 dropout对小数据防止过拟合有很好的效果,值一般设为0.5,小数据上dropout+sgd在我的大部分实验中

    63010发布于 2019-11-30
  • 来自专栏mathor

    模型建立与

    (贪心, GridSearchCV和贝叶斯) 绘制训练集曲线与验证集曲线(从曲线分析过拟合欠拟合的问题,以及如果发生了这些问题,我们应该怎么去尝试解决) 总结 1. 591,不调713,所以还是很重要的。 所以更多的时候需要我们自己手动先排除掉一部分数值,然后使用GridSearch自动 模型有三种方式: 贪心 网格搜索 贝叶斯 这里给出一个模型可调参数及范围选取的参考: ? 详细的可以参考: 随机森林sklearn FandomForest,及其 机器学习各种算法怎么? 所以上面lgb的那个模型效果还是不错的 5. 总结 模型的复杂程度不亚于特征工程,是一个费时间的细活,而且需要借助于很多经验,所以更加需要多试错,多思考,多积累经验 ?

    2.1K21发布于 2020-04-03
  • 来自专栏杨熹的专栏

    详解 TensorBoard-如何

    下面是一个普通的 convolutional 网络结构,我们全文会在这个结构上进行优: ? 这是初级的代码: ? 先来看一下它的训练结果: ? 接下来将分为以下几步: step 1: 查看 graph 结构 step 2:查看 accuracy,weights,biases step 3: 修改 code step 4: 选择最优模型 step 5: 现在发现 model 基本训练的不错了 ---- step 4: 选择最优模型 接下来 tf 还可以进行 可以看不同版本的 model 在 训练不同的 variable 时哪个更好。 我们可以看到 1 识别的比较好,但是在 3,5,8 上面遇到了一些困难,因为它们看起来有点相近, ? ,据说后面 TensorFlow 会推出更炫的而且更专业的可视化功能,例如语音识别的,有了这种可视化的功能,最需要精力的优环节也变得更有趣了。

    2.3K80发布于 2018-04-03
  • 来自专栏老秦求学

    必备---GridSearch网格搜索

    Grid Search:一种手段;穷举搜索:在所有候选的参数选择中,通过循环遍历,尝试每一种可能性,表现最好的参数就是最终的结果。其原理就像是在数组里找最大值。(为什么叫网格搜索? (因为测试集在过程中,送到了模型里,而我们的目的是将训练模型应用在unseen data上); 解决方法: 对训练集再进行一次划分,分成训练集和验证集,这样划分的结果就是:原始数据划分为3份,分别为 ]: svm = SVC(gamma=gamma,C=C) scores = cross_val_score(svm,X_trainval,y_trainval,cv=5) #5折交叉验证 score = scores.mean() #取平均数 if score > best_score: best_score = Test set score:0.97 Best parameters:{'C': 10, 'gamma': 0.1} Best score on train set:0.98 Grid Search 方法存在的共性弊端就是

    3.9K81发布于 2018-04-12
  • 来自专栏AI部落联盟

    干货|XGBoost进阶—+实战

    0,silent模式关闭(一般我们选择slient=0,因为这样能更好的帮助我们理解模型)

    2.5K30发布于 2019-05-27
  • 来自专栏计算机视觉理论及其实现

    深度学习的经验

    例如RNN和传统模型(10)、自动人工一直盯着实验,毕竟太累。自动当前也有不少研究。下面介绍几种比较实用的办法:Gird Search. 这个是最常见的。 具体原理可以参考这个论文: Practical Bayesian Optimization of Machine Learning Algorithms ,这里同时推荐两个实现了贝叶斯的Python fmfn/BayesianOptimization, 比较复杂,支持并行。正负样本比例: 这个是非常忽视,但是在很多分类问题上,又非常重要的参数。 (11)、RNN和LSTM的如果正在训练RNN或者LSTM,要对梯度(记得梯度已除以批量大小)范数使用一个硬约束。像15或者5这样的约束在我个人的实验中工作得很好。 请将梯度除以批处理大小,再检查一下它的范数是否超过15(或5)。如果超过了,将它缩小到15(或5)。

    1.6K20编辑于 2022-09-02
  • 来自专栏尼莫的AI小站

    Spark 模型选择和

    ml-tuning.html 这一章节主要讲述如何通过使用MLlib的工具来调试模型算法和pipeline,内置的交叉验证和其他工具允许用户优化模型和pipeline中的超参数; 目录: 模型选择,也就是 ; 交叉验证; 训练集、验证集划分; 模型选择() 机器学习的一个重要工作就是模型选择,或者说根据给定任务使用数据来发现最优的模型和参数,也叫做调试,既可以针对单个模型进行调试,也可以针对整个pipeline 2个不同的模型,在实际工作中,通常会设置更多的参数、更多的参数取值以及更多的fold,换句话说,CrossValidator本身就是十分奢侈的,无论如何,与手工调试相比,它依然是一种更加合理和自动化的手段 ), (2, "spark f g h", 1.0), (3, "hadoop mapreduce", 0.0), (4, "b spark who", 1.0), (5, Prepare test documents, which are unlabeled. test = spark.createDataFrame([ (4, "spark i j k"), (5,

    1.2K53发布于 2020-10-10
  • 来自专栏机器学习与统计学

    LightGBM 可视化

    最近我发现Huggingface与Streamlit好像更配,所以就开发了一个简易的 LightGBM 可视化的小工具,旨在让大家可以更深入地理解 LightGBM 网址: https://huggingface.co

    1.7K41编辑于 2022-04-11
  • 来自专栏MeteoAI

    机器学习·自动(Hyperopt)

    目前机器学习的算法框架逐渐成熟,针对机器学习模型的自动算法也有很多,可以帮助我们摆脱手动的烦恼,目前主流的算法包括Grid search、Random search、TPE、PSO、SMAC 以及贝叶斯等。 尤其对于比较复杂的模型而言,其更是能以远快于人工的速度同样获得远远超过人工的最终性能。 Hyperopt框架 支持Random search,和TPE(Tree of Parzen Estimators,优化后的贝叶斯自动,可依赖于mongoDB实现分布式。 python3.5,在应用中还是比较受限 https://zhuanlan.zhihu.com/p/52778805[4] https://zhuanlan.zhihu.com/p/44850626[5]

    9.7K51发布于 2019-07-24
领券