暂无搜索历史
MachineLP的Github(欢迎follow):https://github.com/MachineLP
首先, 一直以来就在考虑这么牛逼的opencv该换一下里边一些过时的东西了,像:检测器、识别器等等,果不其然,openv的大佬们还是偷偷的换了。
cv2.SIFT() cv2.SURF() cv2.HOGDescriptor() 使用cv2.SIFT的一个样例:(cv2.SURF使用与之类似) #codi...
循环神经网络(RNN, Recurrent Neural Networks)介绍:http://blog.csdn.net/u014365862/article...
在TensorFlow里,提供了tf.train.NewCheckpointReader来查看model.ckpt文件中保存的变量信息。
你要的答案或许都在这里:小鹏的博客目录 上一篇介绍了朴素贝叶斯的原理:MachineLN之朴素贝叶斯 下面为源码: from numpy import * # ...
贝叶斯模型是指模型参数的推断用的是贝叶斯估计方法,也就是需要指定先验分布,再求取后验分布。
原本打算将机器学习基础写完以后再写深度学习、强化学习、迁移学习的内容,但是现在看还是中间穿插一点比较好。
其实很多事情一定要找好自己的节奏,因为你会发现你不会的东西太多了,千万不要被带跑了。
其实想一下从上学到毕业,学了那么多有多少是真实用到的呢?但是这些事潜移默化影响你的东西,其实我们学习的并不是真实的会这些知识(并且有很多知识现在过时),而是我们...
说起SVM很多人都会感觉头疼,无非就是公式多一个,其实很多时候你真是用的话,都不用你手动自己实现,你是在学习的一种机器学习的思维方式,就要比为什么要提出svm?...
上一节:MachineLN之逻辑回归,讲述了逻辑回归的原理,今天看一下带详细注释的源码:切记好代码都是敲出来的,并且越敲越有感觉:
逻辑回归可以这样理解: 和感知机比较着来看或许更好,将感知机的表达式中的sign函数换成sigmoid就是逻辑回归的表达式,但是这一换不要紧,导致后边参数更新...
其实很多东西还是要靠自己,靠自己去完成最大的一点就是远离舒适区,试想一下自己每时每刻都要为下一顿能不能吃上饭而奋斗,是一种什么样的体验,估计你连想都不敢想;最...
其实感知机虽然原理简单,但是不得不说他的意义重大,为什们呢? 他是SVM的前身,后面的SVM是由此进化来的,其实两个结合起来学习会更好的,但是内容太多,SVM...
暂未填写公司和职称
暂未填写学校和专业
暂未填写个人网址
暂未填写所在城市