前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习

机器学习

作者头像
h3110_w0r1d
发布2024-02-19 20:22:17
1340
发布2024-02-19 20:22:17
举报
文章被收录于专栏:用户9703952的专栏

机器学习

机器学习就是自动找函数式

  1. 要问自己想要找什么样的函数,先去创建一个任务,regression和classification
  1. 不能只会做判断输出1、2,后面发展到需要generate生成有结构的东西
  1. 怎么告诉机器想要找什么样子的函数:supervised learning,而这需要labeled data,即标注数据集,即告诉机器想要得到的结果是什么样子
  1. 评估一个函数的好坏:函数的LOSS
  2. 下一步,期待机器会自动找出LOSS最低的函数
  1. 机器如何找到你想要的函数:Linear->Network Architecture:给机器一个函数寻找的范围

Supervised learning vs Reinforcement learning

  1. Supervised learning:监督学习,给数据需要标注
  2. Reinforcement learning:强化学习,给的数据不需要标注

Meta Learning = learn to learn 让机器学会学习

life-long-learning

  1. 终身学习

Regression

  1. 找函数
  2. 三步走 第一步,找一个model 第二步,定义function set,在function set中找到一个LOSS值最低的function goodness of function,判断此函数的LOSS值,如何判断:找一个关于此函数的函数,能判断此函数的LOSS值的函数,输入值为a function,输出值为how bad it is,能判断此函数的好坏的值 假设函数是: 对此函数的结果求方差(其中^y是求得的估计值,减去的是每一只宝可梦的实际值带入得到的值) 第三步,找到最好的function 找一个function,使得找到的L(f)最小,f* = argL(f) 或者找到一个w*,b*,使得argmin L(w,b)最小 第四步,Gradient Descent,目的是找到可以使LOSS值最小的wGradient Descent 暴力的做法是穷举所有的w,找到LOSS值最小的w 可以:随机选取初始的w0;构建横轴为w,纵轴为L的坐标系,在初始的w位置L对w的导数(切线斜率),如果切线斜率为负数,则随着w的增大,LOSS值减小,所以要增加w的值;如果斜率为正,则要减小w的值\frac{dL}{dw}|w=w0 增加/减小w的值应该有多大:1. 取决于dL/dw的值(切线斜率、导数)有多大,如果越大,越陡峭,移动距离就越大 2.取决于learning rate的值的大小(事先定好的一个常数),如果learning rate的值较大,踏出一步的时候,参数更新的幅度就比较大,则学习的效率、速度就比较快 w1 = w0 - \eta*\frac{dL}{dw}|w=w0 w2 = w0 - \eta*\frac{dL}{dw}|w=w0 经过多次iteration(迭代)之后就到达了local optimal(局部最优解),此时在local optimal的点,算出的微分都是0了,不会再进行更新 当是两个参数时,w*,b* = arg minL(w,b) 思路相同,先选取两个初始值,w0和b0 然后在初始值位置求偏导\frac{\partial L}{\partial w}|w=w0,b=b0,\frac{\partial L}{\partial b}|w=w0,b=b0 更新,w1 = w0 - \eta*\frac{\partial L}{\partial w}|w=w0,b=b0,b1 = b0 - \eta\frac{\partial L}{\partial b}|w=w0,b=b0 进行多次iteration(迭代),就可以到达local optimal 因为Regression是线性的,所以单调,local optimal == global optimal gradient指的是\frac{\partial L}{\partial w},\frac{\partial L}{\partial b}所组成的一个vector(向量),且gradient的符号是倒三角\nabla 二维可视化:(-\eta\frac{\partial L}{\partial b},-\eta\frac{\partial L}{\partial w})的方向是切线的法线方向,指向的是圆心 local optimal == global optimal的问题:因为linear regression(线性回归)的loss值是convex(凸面)的,所以没有local optimal(局部最优解) 求复合函数的偏导:外面导里面不导 * 里面导
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-03-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 机器学习
    • 机器学习就是自动找函数式
      • Supervised learning vs Reinforcement learning
        • Meta Learning = learn to learn 让机器学会学习
          • life-long-learning
            • Regression
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档