首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Chasays

    TensorFlow 基础学习 - 4 (重点是)

    训练 history = model.fit( train_generator, steps_per_epoch=10, epochs=10, verbose=1 ) kerastuner.engine.hyperparameters import HyperParameters import tensorflow as tf 接着创建HyperParameters对象,然后在模型中插入Choice、Int等用的对象

    1K20编辑于 2021-12-06
  • 来自专栏视觉求索无尽也

    经验】图像分类模型的经验前言经验与我交流

    经验 模型选择 通常我会使用一个简单的CNN模型(这个模型一般包含5个卷积层)将数据扔进去训练跑出一个baseline,这一步工作主要是为了验证数据集的质量。 超参数的选择 是项技术活,调得好CVPR,不好下海搬砖。

    2.4K20发布于 2018-12-04
  • 来自专栏大数据学习与研究

    druid

    10000000000000},{"path":"/data3/druid/var/druid/segment-cache","maxSize":10000000000000},{"path":"/data4/ ---------------------------------------------------------------------------------------- -Xms1g -Xmx4g

    60540编辑于 2022-02-22
  • 来自专栏全栈程序员必看

    Prophet

    本篇主要讲解实际运用中Prophet的主要步骤以及一些本人实际经验。 如图1-4中所示,大家可以自行体会。 image.png 图1-4 holidays这个参数非常重要,对整个模型的影响极大,因此大家在构建这个参数时一定要给予相当的重视。 二 参数优实战 目前实际生产中,时序模型的训练往往是数量惊人,因此如果依靠以往的指标和经验以不大可行,所以只能采用机器寻的方式。福布湿在这里给大家介绍下常用的网格寻。 在之前,最重要的是要确定好模型的评价指标。Prophet中内置的评价指标有传统的mse、rmse、mae、mape、coverage。 因此如果想训练出一个好的模型,数据和很重要,但更重要的对算法原理的充分理解并根据实际情况改进算法,从而让模型效果达到一个新的台阶。

    2.8K10编辑于 2022-07-04
  • 来自专栏深度学习与计算机视觉

    px4官网指南 多旋翼无人机PID指南

    译文部分: 多旋翼无人机PID指南 不用碳化纤维或增强碳化纤维桨调整多轴,不使用损坏的桨片。 出于安全考虑,系统默认增益都设置的比较小。请增加增益以便获取更好的控制响应。 PX4的目的是在个人电脑上实现设备的尽可能快速的控制,因为不是所有的被控对象的系统模型都是可获得的,因此PID是非常有意义的,并且PID控制适用于所有情况。 如果反应正确但非常慢,大P直到开始出现抖动。重新调回P到稍稍有一点抖动甚至不再抖动(大概回百分之十),到稍稍超,典型值一般为0.1。 (一定会出现由抖动到平稳的过程,D值再大才会再次抖动,所以是不能着急,一点点增加,不然可能错过理想值)一般通过调节P与D就可以得到比较良好的电机响应。 如果反应正确但非常慢,大P直到开始出现抖动。最佳的反应应该是超10%–20%后得到良好的响应。 在QGoundControl可以锁定pitch与roll。姿态角度超不要超过10%–20%.

    1.3K10编辑于 2022-05-07
  • 来自专栏SAMshare

    Machine Learning-模型评估与 ——曲线

    2from sklearn.model_selection import learning_curve 3pipe_lr = Pipeline([('scl', StandardScaler()), 4 绘制验证曲线得到超和准确率关系 验证曲线是用来提高模型的性能,验证曲线和学习曲线很相近,不同的是这里画出的是不同参数下模型的准确率而不是不同训练集大小下的准确率: 1from sklearn.model_selection 2param_range = [0.001, 0.01, 0.1, 1.0, 10.0, 100.0] 3train_scores, test_scores = validation_curve( 4

    93510发布于 2019-08-22
  • 来自专栏杨熹的专栏

    LightGBM 如何

    本文结构: 什么是 LightGBM 怎么 和 xgboost 的代码比较 ---- 1. 怎么 下面几张表为重要参数的含义和如何应用 Control Parameters 含义 用法 max_depth 树的最大深度 当模型过拟合时,可以考虑首先降低 max_depth min_data_in_leaf categorical_features 类似,只不过不是将特定的列视为categorical,而是完全忽略 save_binary 这个参数为 true 时,则数据集被保存为二进制文件,下次读数据时速度会变快 ---- ,在大型数据集时就设置为数百或数千 max_depth 这个也是可以限制树的深度 下表对应了 Faster Speed ,better accuracy ,over-fitting 三种目的时,可以的参数

    4K41发布于 2018-06-19
  • 来自专栏算法channel

    模型和超参数优化的4个工具

    在开始超之前,请确保已完成以下操作: 获取基线。您可以使用更小的模型、更少的迭代、默认参数或手动调整的模型来实现这一点。 将您的数据分成训练集、验证集和测试集。 在本文结束时,您将了解: 顶级的超参数优工具, 各种开源服务(免费使用)和付费服务, 他们的特点和优势, 他们支持的框架, 如何为您的项目选择最佳工具, 如何将它们添加到您的项目中。 “超参数优”来实现上面在 Tensorflow 中列出的步骤。 使用 Keras 和 Ray Tune 进行超参数调整。 2. Optuna Optuna专为机器学习而设计。 Hyperopt 的特点: HyperOpt 需要 4 个基本组件来优化超参数: 搜索空间, 损失函数, 优化算法, 用于存储历史记录(分数、配置)的数据库 在项目中使用 Hyperopt 的步骤: 初始化要搜索的空间 4. Scikit-优化 Scikit-Optimize是 Python 中用于超参数优化的开源库。它是由 Scikit-learn 背后的团队开发的。与其他超参数优化库相比,它相对容易使用。

    2.7K30编辑于 2022-08-31
  • 来自专栏Datawhale专栏

    Deep learning经验

    除了gate之类的地方,需要把输出限制成0-1之外,尽量不要用sigmoid,可以用tanh或者relu之类的激活函数.1. sigmoid函数在-44的区间里,才有较大的梯度。

    68942发布于 2019-11-23
  • 来自专栏智能算法

    深度学习如何

    这种活也有两年时间了. 我的回答可能更多的还是侧重工业应用, 技术上只限制在CNN这块. 先说下我的观点, 就是trial-and-error. 没有其他捷径可以走. 唯一的区别是有些人盲目的尝试, 有些人思考后再尝试.快速尝试, 快速纠错这是的关键. ◆ 首先说下可视化 我个人的理解, 对于可视化, 更多的还是帮助人类以自己熟悉的方式来观察网络. 因为, 你是不可能边观察网络, 还边的. 你只是训练完成后(或者准确率到达一个阶段后), 才能可视化. 但是具体怎么是没辙的. 第一, 你不可能告诉网络, 这层你得学个边界检测的功能出来. 就我们狗能遇到的问题, NN没法拟合的, 这概率是有多小★ 你可以不这么做, 但是等你数据准备了两天, 结果发现有问题要重新生成的时候, 你这周时间就酱油了. 2.

    74440发布于 2018-06-04
  • 来自专栏粽子的深度学习笔记

    自动神器NNI

    尝试了几款神器后,还是选择了一款微软出的一款神器NNI . 除了各方面性能都挺好之外,完备的官方文档也是一个值得选择的原因。另外,weight & bias 也是一款比较优秀的神器。 NNI (Neural Network Intelligence)是一个轻量但强大的工具包,帮助用户自动的进行特征工程,神经网络架构搜索,超优以及模型压缩。 contrast_limit":{"_type":"choice", "_value":[0.1, 0.2, 0.3, 0.4]}, "num_holes":{"_type":"choice", "_value":[4, local # 本地 服务器 searchSpacePath: search_space.json #choice: true, false useAnnotation: false tuner: # 器 ----------------------------------------------------------------------- The experiment id is egchD4qy

    1.9K30发布于 2021-07-07
  • 来自专栏深度学习和计算机视觉

    Deep Learning 经验

    除了gate之类的地方,需要把输出限制成0-1之外,尽量不要用sigmoid,可以用tanh或者relu之类的激活函数.1. sigmoid函数在-44的区间里,才有较大的梯度。

    63010发布于 2019-11-30
  • 来自专栏智能算法

    深度学习如何

    这种活也有两年时间了. 我的回答可能更多的还是侧重工业应用, 技术上只限制在CNN这块. 先说下我的观点, 就是trial-and-error. 没有其他捷径可以走. 唯一的区别是有些人盲目的尝试, 有些人思考后再尝试.快速尝试, 快速纠错这是的关键. ◆ 首先说下可视化 我个人的理解, 对于可视化, 更多的还是帮助人类以自己熟悉的方式来观察网络. 因为, 你是不可能边观察网络, 还边的. 你只是训练完成后(或者准确率到达一个阶段后), 才能可视化. 但是具体怎么是没辙的. 第一, 你不可能告诉网络, 这层你得学个边界检测的功能出来. 就我们狗能遇到的问题, NN没法拟合的, 这概率是有多小? ★ 你可以不这么做, 但是等你数据准备了两天, 结果发现有问题要重新生成的时候, 你这周时间就酱油了. ? 2.

    62840发布于 2018-10-23
  • 来自专栏人工智能头条

    详解TensorBoard如何

    下面是一个普通的 convolutional 网络结构,我们全文会在这个结构上进行优: ? 这是初级的代码: ? 先来看一下它的训练结果: ? 现在发现 model 基本训练的不错了 Step 4: 选择最优模型 接下来 tf 还可以进行 可以看不同版本的 model 在 训练不同的 variable 时哪个更好。 总结 好了,上面基本把 TensorBoard 各板块上主要的功能简单介绍了一下,而且用了一个小例子,看如何借用各个板块的可视化结果来帮助我们优模型: step 1: 查看 graph 结构 step ,据说后面 TensorFlow 会推出更炫的而且更专业的可视化功能,例如语音识别的,有了这种可视化的功能,最需要精力的优环节也变得更有趣了。 v=eBbEDRsCmv4 本文 code: https://gist.github.com/dandelionmane/4f02ab8f1451e276fea1f165a20336f1#file-mnist-py

    69530发布于 2018-07-20
  • 来自专栏全栈程序员必看

    图文详解PID

    文章目录 图文详解PID 一、什么是PID 1. 比例系数 2. 积分系数 3. 微分系数 二、PID调节方式 1.PI系统调节 2.PD系统调节 3.PID系统调节 图文详解PID 读完本篇文章你的收获: PID三个参数基本概念 了解如何调节PID 认识一个经常咕咕咕的博主 提高系统对未来变化反应能力 二、PID调节方式 通过上一小节的分析,我们对PID的三个项有了一个简单的理解,但文字上的描述还是太抽象了,我以一个小车调速系统来做进一步讲解,结合实际现象来分析PID三个参数的实际作用,以及如何这三个参数 但大多数情况下PID三个参数并不是都使用上的,一般会其中两个来组合使用,比如PI组合用于追求稳定的系统,PD组合用于追求快速响应的系统,当然PID用于即追求稳定又追求快速响应的系统,但是实际上PID参数越多越难, 调节的过大之后,反倒会放大系统趋势的影响,使系统出现震荡,难以稳定,如下D=5 3.PID系统调节 在讲了PI和PD系统的调节方式后,下面分享一下PID系统的调节方式,首先我们先按照PI系统进行调节,先调P在I

    15.2K13编辑于 2022-09-06
  • 来自专栏mathor

    模型建立与

    (贪心, GridSearchCV和贝叶斯) 绘制训练集曲线与验证集曲线(从曲线分析过拟合欠拟合的问题,以及如果发生了这些问题,我们应该怎么去尝试解决) 总结 1. ,也就是模型的工作。 591,不调713,所以还是很重要的。 所以更多的时候需要我们自己手动先排除掉一部分数值,然后使用GridSearch自动 模型有三种方式: 贪心 网格搜索 贝叶斯 这里给出一个模型可调参数及范围选取的参考: ? 详细的可以参考: 随机森林sklearn FandomForest,及其 机器学习各种算法怎么

    2.1K21发布于 2020-04-03
  • 来自专栏杨熹的专栏

    详解 TensorBoard-如何

    下面是一个普通的 convolutional 网络结构,我们全文会在这个结构上进行优: ? 这是初级的代码: ? 先来看一下它的训练结果: ? 现在发现 model 基本训练的不错了 ---- step 4: 选择最优模型 接下来 tf 还可以进行 可以看不同版本的 model 在 训练不同的 variable 时哪个更好。 ---- 好了,上面基本把 TensorBoard 各板块上主要的功能简单介绍了一下,而且用了一个小例子,看如何借用各个板块的可视化结果来帮助我们优模型: step 1: 查看 graph 结构 step ,据说后面 TensorFlow 会推出更炫的而且更专业的可视化功能,例如语音识别的,有了这种可视化的功能,最需要精力的优环节也变得更有趣了。 v=eBbEDRsCmv4 本文 code: https://gist.github.com/dandelionmane/4f02ab8f1451e276fea1f165a20336f1#file-mnist-py

    2.3K80发布于 2018-04-03
  • 来自专栏AI部落联盟

    干货|XGBoost进阶—+实战

    0,silent模式关闭(一般我们选择slient=0,因为这样能更好的帮助我们理解模型)

    2.5K30发布于 2019-05-27
  • 来自专栏老秦求学

    必备---GridSearch网格搜索

    Grid Search:一种手段;穷举搜索:在所有候选的参数选择中,通过循环遍历,尝试每一种可能性,表现最好的参数就是最终的结果。其原理就像是在数组里找最大值。(为什么叫网格搜索? 以有两个参数的模型为例,参数a有3种可能,参数b有4种可能,把所有可能性列出来,可以表示成一个3*4的表格,其中每个cell就是一个网格,循环过程就像是在每个网格里遍历、搜索,所以叫grid search (因为测试集在过程中,送到了模型里,而我们的目的是将训练模型应用在unseen data上); 解决方法: 对训练集再进行一次划分,分成训练集和验证集,这样划分的结果就是:原始数据划分为3份,分别为 Test set score:0.97 Best parameters:{'C': 10, 'gamma': 0.1} Best score on train set:0.98 Grid Search 方法存在的共性弊端就是 总而言之,言而总之 Grid Search:一种优方法,在参数列表中进行穷举搜索,对每种情况进行训练,找到最优的参数;由此可知,这种方法的主要缺点是 比较耗时!

    3.9K81发布于 2018-04-12
  • 来自专栏机器学习与统计学

    LightGBM 可视化

    最近我发现Huggingface与Streamlit好像更配,所以就开发了一个简易的 LightGBM 可视化的小工具,旨在让大家可以更深入地理解 LightGBM 网址: https://huggingface.co

    1.7K41编辑于 2022-04-11
领券