首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Python3 机器学习简明教程

1 机器学习介绍     1.1 什么是机器学习     1.2 机器学习的应用     1.3 机器学习基本流程与工作环节         1.3.1 数据采集与标记         1.3.2 数据清洗         1.3.3 特征选择         1.3.4 模型选择         1.3.5 训练和测试         1.3.6 模型使用     1.4 机器学习算法一览 2 Python 3 机器学习软件包     2.1 多种机器学习编程语言比较     2.2 开发环境 Anaconda 搭建         2.2.1 Windows         2.2.2 macOS         2.2.3 Linux     2.3 Jupyter Notebook 介绍     2.4 Spyder 介绍     2.5 Numpy 介绍         2.5.1 Numpy 数组         2.5.2 Numpy 运算         2.5.3 Numpy Cheat Sheet     2.6 Pandas 介绍         2.6.1 十分钟入门 pandas         2.6.2 Pandas Cheat Sheet     2.7 Matplotilb 介绍         2.7.1 Pyplot 教程         2.7.2 plots 示例         2.7.3 Matplotilb Cheat Sheet     2.8 scikit-learn 介绍         2.8.1 scikit-learn 教程         2.8.2 scikit-learn 接口         2.8.3 scikit-learn Cheat Sheet     2.9 数据预处理         2.9.1 导入数据集         2.9.2 缺失数据         2.9.3 分类数据         2.9.4 数据划分         2.9.5 特征缩放         2.9.6 数据预处理模板 3 回归     3.1 简单线性回归         3.1.1 算法原理         3.1.2 预测函数         3.1.3 成本函数         3.1.4 回归模板     3.2 多元线性回归     3.3 多项式回归         3.3.1 案例:预测员工薪水     3.4 正则化         3.4.1 岭回归         3.4.2 Lasso 回归     3.5 评估回归模型的表现         3.5.1 R平方         3.5.2 广义R平方         3.5.3 回归模型性能评价及选择         3.5.4 回归模型系数的含义 4 分类     4.1 逻辑回归         4.1.1 算法原理         4.1.2 多元分类         4.1.3 分类代码模板         4.1.4 分类模板     4.2 k-近邻         4.2.1 算法原理         4.2.2 变种     4.3 支持向量机         4.3.1 算法原理         4.3.2 二分类线性可分         4.3.3 二分类线性不可分支持         4.3.4 多分类支持向量机         4.3.5 Kernel SVM - 原理         4.3.6 高维投射         4.3.7 核技巧         4.3.8 核函数的类型     4.4 决策树         4.4.1 算法原理         4.4.2 剪枝与控制过拟合         4.4.3 信息增益         4.4.4 最大熵与EM算法 5 聚类     5.1 扁平聚类         5.1.1 k 均值         5.1.2 k-medoids     5.2 层次聚类         5.2.1 Single-Linkage         5.2.2 Complete-Linkage 6 关联规则     6.1 关联规则学习     6.2 先验算法Apriori     6.3 FP Growth 7 降维     7.1 PCA(主成分分析)     7.2 核 PCA     7.3 等距特征映射IsoMap 8 强化学习     8.1 置信区间上界算法         8.1.1 多臂老虎机问题

03
您找到你想要的搜索结果了吗?
是的
没有找到

机器学习之从极大似然估计到最大熵原理以及EM算法详解

极大似然估计是建立在极大似然原理的基础上的一个统计方法,极大似然原理的直观想法是,一个随机试验如有若干个可能的结果A,B,C,... ,若在一次试验中,结果A出现了,那么可以认为实验条件对A的出现有利,也即出现的概率P(A)较大。极大似然原理的直观想法我们用下面例子说明。设甲箱中有99个白球,1个黑球;乙箱中有1个白球.99个黑球。现随机取出一箱,再从抽取的一箱中随机取出一球,结果是黑球,这一黑球从乙箱抽取的概率比从甲箱抽取的概率大得多,这时我们自然更多地相信这个黑球是取自乙箱的。一般说来,事件A发生的概率与某一未知参数 \theta 有关, \theta 取值不同,则事件A发生的概率P(A|\theta )也不同,当我们在一次试验中事件A发生了,则认为此时的\theta 值应是t的一切可能取值中使P(A|\theta )达到最大的那一个,极大似然估计法就是要选取这样的t值作为参数t的估计值,使所选取的样本在被选的总体中出现的可能性为最大。

010

美团付晴川:算法工程师需要考察三种素养

付晴川,目前在美团网技术工程部数据组担任技术专家。长期致力于机器学习&数据挖掘相关工作,曾就职于百度搜索研发部负责网页/图片分析,现任职于美团技术工程部,负责用户相关的数据挖掘工作。 CSDN:您对算法是怎样理解的?以及您认为算法有哪些应用领域? 付晴川:听过李开复老师的演讲《算法的力量》,也阅读过吴军老师的大作《数学之美》,不得不说算法是许多高效计算机程序的灵魂。 像查找、排序等等这样广义上讲的算法,实际上已经渗透到凡是涉及计算机程序上的几乎所有的领域了;而像机器学习/数据挖掘等等这样狭义上讲的算法,目

03
领券