首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏视觉求索无尽也

    经验】图像分类模型的经验前言经验与我交流

    经验 模型选择 通常我会使用一个简单的CNN模型(这个模型一般包含5个卷积层)将数据扔进去训练跑出一个baseline,这一步工作主要是为了验证数据集的质量。 超参数的选择 是项技术活,调得好CVPR,不好下海搬砖。

    2.4K20发布于 2018-12-04
  • 来自专栏大数据学习与研究

    druid

    10000000000000},{"path":"/data6/druid/var/druid/segment-cache","maxSize":10000000000000},{"path":"/data7/

    60540编辑于 2022-02-22
  • 来自专栏全栈程序员必看

    Prophet

    本篇主要讲解实际运用中Prophet的主要步骤以及一些本人实际经验。 二 参数优实战 目前实际生产中,时序模型的训练往往是数量惊人,因此如果依靠以往的指标和经验以不大可行,所以只能采用机器寻的方式。福布湿在这里给大家介绍下常用的网格寻。 在之前,最重要的是要确定好模型的评价指标。Prophet中内置的评价指标有传统的mse、rmse、mae、mape、coverage。 如果设置为‘7d’,01-07、01-14、01-21等等,而这些预测的数据为前面定义的horizon。 因此如果想训练出一个好的模型,数据和很重要,但更重要的对算法原理的充分理解并根据实际情况改进算法,从而让模型效果达到一个新的台阶。

    2.8K10编辑于 2022-07-04
  • 来自专栏SAMshare

    Machine Learning-模型评估与 ——曲线

    ]) 5train_sizes, train_scores, test_scores =\ 6 learning_curve(estimator=pipe_lr, 7 绘制验证曲线得到超和准确率关系 验证曲线是用来提高模型的性能,验证曲线和学习曲线很相近,不同的是这里画出的是不同参数下模型的准确率而不是不同训练集大小下的准确率: 1from sklearn.model_selection 4 estimator=pipe_lr, 5 X=X_train, 6 y=y_train, 7

    93510发布于 2019-08-22
  • 来自专栏杨熹的专栏

    LightGBM 如何

    本文结构: 什么是 LightGBM 怎么 和 xgboost 的代码比较 ---- 1. 怎么 下面几张表为重要参数的含义和如何应用 Control Parameters 含义 用法 max_depth 树的最大深度 当模型过拟合时,可以考虑首先降低 max_depth min_data_in_leaf categorical_features 类似,只不过不是将特定的列视为categorical,而是完全忽略 save_binary 这个参数为 true 时,则数据集被保存为二进制文件,下次读数据时速度会变快 ---- train_data = lgb.Dataset(x_train,label=y_train) setting parameters: #xgboost parameters = { 'max_depth':7, learning_rate':.05} # lightgbm param = { 'num_leaves':150, 'objective':'binary', 'max_depth':7,

    4K41发布于 2018-06-19
  • 来自专栏Datawhale专栏

    Deep learning经验

    训练技巧对深度学习来说是非常重要的,作为一门实验性质很强的科学,同样的网络结构使用不同的训练方法训练,结果可能会有很大的差异。这里我总结了近一年来的炼丹心得,分享给大家,也欢迎大家补充指正。

    68942发布于 2019-11-23
  • 来自专栏智能算法

    深度学习如何

    这种活也有两年时间了. 我的回答可能更多的还是侧重工业应用, 技术上只限制在CNN这块. 先说下我的观点, 就是trial-and-error. 没有其他捷径可以走. 唯一的区别是有些人盲目的尝试, 有些人思考后再尝试.快速尝试, 快速纠错这是的关键. ◆ 首先说下可视化 我个人的理解, 对于可视化, 更多的还是帮助人类以自己熟悉的方式来观察网络. 因为, 你是不可能边观察网络, 还边的. 你只是训练完成后(或者准确率到达一个阶段后), 才能可视化. 但是具体怎么是没辙的. 第一, 你不可能告诉网络, 这层你得学个边界检测的功能出来. 我自己的程序就用过1x14的手写filter, 写过之后你看看inception里面的1x7, 7x1 就会会心一笑...

    74440发布于 2018-06-04
  • 来自专栏粽子的深度学习笔记

    自动神器NNI

    尝试了几款神器后,还是选择了一款微软出的一款神器NNI . 除了各方面性能都挺好之外,完备的官方文档也是一个值得选择的原因。另外,weight & bias 也是一款比较优秀的神器。 NNI (Neural Network Intelligence)是一个轻量但强大的工具包,帮助用户自动的进行特征工程,神经网络架构搜索,超优以及模型压缩。 local # 本地 服务器 searchSpacePath: search_space.json #choice: true, false useAnnotation: false tuner: # 器 codeDir: . # gpuNum: 1 localConfig: useActiveGpu: true 注意各个文件路径 ---- 第三步:修改 Trial 代码来从 NNI 获取超, log stdout show stdout log content 6. nnictl stop stop an experiment 7.

    1.9K30发布于 2021-07-07
  • 来自专栏深度学习和计算机视觉

    Deep Learning 经验

    训练技巧对深度学习来说是非常重要的,作为一门实验性质很强的科学,同样的网络结构使用不同的训练方法训练,结果可能会有很大的差异。这里我总结了近一年来的炼丹心得,分享给大家,也欢迎大家补充指正。

    63010发布于 2019-11-30
  • 来自专栏智能算法

    深度学习如何

    这种活也有两年时间了. 我的回答可能更多的还是侧重工业应用, 技术上只限制在CNN这块. 先说下我的观点, 就是trial-and-error. 没有其他捷径可以走. 唯一的区别是有些人盲目的尝试, 有些人思考后再尝试.快速尝试, 快速纠错这是的关键. ◆ 首先说下可视化 我个人的理解, 对于可视化, 更多的还是帮助人类以自己熟悉的方式来观察网络. 因为, 你是不可能边观察网络, 还边的. 你只是训练完成后(或者准确率到达一个阶段后), 才能可视化. 但是具体怎么是没辙的. 第一, 你不可能告诉网络, 这层你得学个边界检测的功能出来. 我自己的程序就用过1x14的手写filter, 写过之后你看看inception里面的1x7, 7x1 就会会心一笑...

    62840发布于 2018-10-23
  • 来自专栏人工智能头条

    详解TensorBoard如何

    下面是一个普通的 convolutional 网络结构,我们全文会在这个结构上进行优: ? 这是初级的代码: ? 先来看一下它的训练结果: ? 现在发现 model 基本训练的不错了 Step 4: 选择最优模型 接下来 tf 还可以进行 可以看不同版本的 model 在 训练不同的 variable 时哪个更好。 接下来让我们来看一下一个 bad 预测,例如这个 7, 它被放在了 1 的一堆中,也就是 model 把一个 7 标记成了 1, ? 然后我们可以放大一下,这个 7 确实很像 1,那我们的 model 的确是会把它看成 1, 还有那个 9 也很像 1. ? 总结 好了,上面基本把 TensorBoard 各板块上主要的功能简单介绍了一下,而且用了一个小例子,看如何借用各个板块的可视化结果来帮助我们优模型: step 1: 查看 graph 结构 step

    69530发布于 2018-07-20
  • 来自专栏全栈程序员必看

    图文详解PID

    文章目录 图文详解PID 一、什么是PID 1. 比例系数 2. 积分系数 3. 微分系数 二、PID调节方式 1.PI系统调节 2.PD系统调节 3.PID系统调节 图文详解PID 读完本篇文章你的收获: PID三个参数基本概念 了解如何调节PID 认识一个经常咕咕咕的博主 提高系统对未来变化反应能力 二、PID调节方式 通过上一小节的分析,我们对PID的三个项有了一个简单的理解,但文字上的描述还是太抽象了,我以一个小车调速系统来做进一步讲解,结合实际现象来分析PID三个参数的实际作用,以及如何这三个参数 但大多数情况下PID三个参数并不是都使用上的,一般会其中两个来组合使用,比如PI组合用于追求稳定的系统,PD组合用于追求快速响应的系统,当然PID用于即追求稳定又追求快速响应的系统,但是实际上PID参数越多越难, 调节的过大之后,反倒会放大系统趋势的影响,使系统出现震荡,难以稳定,如下D=5 3.PID系统调节 在讲了PI和PD系统的调节方式后,下面分享一下PID系统的调节方式,首先我们先按照PI系统进行调节,先调P在I

    15.2K13编辑于 2022-09-06
  • 来自专栏mathor

    模型建立与

    (贪心, GridSearchCV和贝叶斯) 绘制训练集曲线与验证集曲线(从曲线分析过拟合欠拟合的问题,以及如果发生了这些问题,我们应该怎么去尝试解决) 总结 1. 这样,各个模型的效果就一目了然了,从上图可以看出,随机森林和LGB的效果还是好一些的,后面可以基于这两个进行,当然xgboost的效果可能由于参数的原因表现不是那么理想,这里也作为了我们备选 那么究竟有没有影响呢 591,不调713,所以还是很重要的。 所以更多的时候需要我们自己手动先排除掉一部分数值,然后使用GridSearch自动 模型有三种方式: 贪心 网格搜索 贝叶斯 这里给出一个模型可调参数及范围选取的参考: ? 详细的可以参考: 随机森林sklearn FandomForest,及其 机器学习各种算法怎么

    2.1K21发布于 2020-04-03
  • 来自专栏杨熹的专栏

    详解 TensorBoard-如何

    下面是一个普通的 convolutional 网络结构,我们全文会在这个结构上进行优: ? 这是初级的代码: ? 先来看一下它的训练结果: ? 现在发现 model 基本训练的不错了 ---- step 4: 选择最优模型 接下来 tf 还可以进行 可以看不同版本的 model 在 训练不同的 variable 时哪个更好。 接下来让我们来看一下一个 bad 预测,例如这个 7, 它被放在了 1 的一堆中,也就是 model 把一个 7 标记成了 1, ? 然后我们可以放大一下,这个 7 确实很像 1,那我们的 model 的确是会把它看成 1, 还有那个 9 也很像 1. ? ---- 好了,上面基本把 TensorBoard 各板块上主要的功能简单介绍了一下,而且用了一个小例子,看如何借用各个板块的可视化结果来帮助我们优模型: step 1: 查看 graph 结构 step

    2.3K80发布于 2018-04-03
  • 来自专栏AI部落联盟

    干货|XGBoost进阶—+实战

    0,silent模式关闭(一般我们选择slient=0,因为这样能更好的帮助我们理解模型)

    2.5K30发布于 2019-05-27
  • 来自专栏老秦求学

    必备---GridSearch网格搜索

    Grid Search:一种手段;穷举搜索:在所有候选的参数选择中,通过循环遍历,尝试每一种可能性,表现最好的参数就是最终的结果。其原理就像是在数组里找最大值。(为什么叫网格搜索? Simple Grid Search:简单的网格搜索 以2个参数的优过程为例: from sklearn.datasets import load_iris from sklearn.svm import (因为测试集在过程中,送到了模型里,而我们的目的是将训练模型应用在unseen data上); 解决方法: 对训练集再进行一次划分,分成训练集和验证集,这样划分的结果就是:原始数据划分为3份,分别为 Test set score:0.97 Best parameters:{'C': 10, 'gamma': 0.1} Best score on train set:0.98 Grid Search 方法存在的共性弊端就是 总而言之,言而总之 Grid Search:一种优方法,在参数列表中进行穷举搜索,对每种情况进行训练,找到最优的参数;由此可知,这种方法的主要缺点是 比较耗时!

    3.9K81发布于 2018-04-12
  • 来自专栏机器学习与统计学

    LightGBM 可视化

    最近我发现Huggingface与Streamlit好像更配,所以就开发了一个简易的 LightGBM 可视化的小工具,旨在让大家可以更深入地理解 LightGBM 网址: https://huggingface.co

    1.7K41编辑于 2022-04-11
  • 来自专栏尼莫的AI小站

    Spark 模型选择和

    ml-tuning.html 这一章节主要讲述如何通过使用MLlib的工具来调试模型算法和pipeline,内置的交叉验证和其他工具允许用户优化模型和pipeline中的超参数; 目录: 模型选择,也就是 ; 交叉验证; 训练集、验证集划分; 模型选择() 机器学习的一个重要工作就是模型选择,或者说根据给定任务使用数据来发现最优的模型和参数,也叫做调试,既可以针对单个模型进行调试,也可以针对整个pipeline 2个不同的模型,在实际工作中,通常会设置更多的参数、更多的参数取值以及更多的fold,换句话说,CrossValidator本身就是十分奢侈的,无论如何,与手工调试相比,它依然是一种更加合理和自动化的手段 mapreduce", 0.0), (4, "b spark who", 1.0), (5, "g d a y", 0.0), (6, "spark fly", 1.0), (7, spark.createDataFrame([ (4, "spark i j k"), (5, "l m n"), (6, "mapreduce spark"), (7,

    1.2K53发布于 2020-10-10
  • 来自专栏MeteoAI

    机器学习·自动(Hyperopt)

    目前机器学习的算法框架逐渐成熟,针对机器学习模型的自动算法也有很多,可以帮助我们摆脱手动的烦恼,目前主流的算法包括Grid search、Random search、TPE、PSO、SMAC 以及贝叶斯等。 尤其对于比较复杂的模型而言,其更是能以远快于人工的速度同样获得远远超过人工的最终性能。 Hyperopt框架 支持Random search,和TPE(Tree of Parzen Estimators,优化后的贝叶斯自动,可依赖于mongoDB实现分布式。 ['n_estimators']=argsDict['n_estimators']+1 argsDict['max_depth']=argsDict['max_depth']+7

    9.7K51发布于 2019-07-24
  • 来自专栏计算机视觉理论及其实现

    深度学习的经验

    (7)、数值梯度检查如果没有使用过Theano或者Torch,梯度实现只能亲力亲为了。在实现梯度的时候很容易出错,所以使用数值梯度检查是至关重要的。这样做会让你对自己的代码充满信心。 例如RNN和传统模型(10)、自动人工一直盯着实验,毕竟太累。自动当前也有不少研究。下面介绍几种比较实用的办法:Gird Search. 这个是最常见的。 具体原理可以参考这个论文: Practical Bayesian Optimization of Machine Learning Algorithms ,这里同时推荐两个实现了贝叶斯的Python fmfn/BayesianOptimization, 比较复杂,支持并行。正负样本比例: 这个是非常忽视,但是在很多分类问题上,又非常重要的参数。 (11)、RNN和LSTM的如果正在训练RNN或者LSTM,要对梯度(记得梯度已除以批量大小)范数使用一个硬约束。像15或者5这样的约束在我个人的实验中工作得很好。

    1.6K20编辑于 2022-09-02
领券