正则化方法经常被应用在深度学习中,在泛化我们的数据模型时,解决过拟合的问题。深度学习网络只有在有足够大的数据集时才能产生惊人的学习效果。而通常我们的数据不够多,所以放在深度学习模型中进行训练的话过拟合的问题经常发生。反之,如果我们选用仅适合我们数据量的模型,那么就非常难以进行泛化和优化。近几年深度网络之所以突然流行起来并在各个领域得到广泛应用正是得益于正则化技术在训练非常大的大型数据模型时产生的关键作用。
减少过拟合的方法有很多:early stopping、数据集扩增(Data augmentation)、正则化(Regularization)包括L1、L2(L2 regularization也叫weight decay),dropout。
本次课程主要对常用正则化方法L1、L2,dropout进行讲解,并教大家如何在TensorFlow中实现!
主讲人:遇越(Dummy)
美国哥伦比亚大学电子电气工程硕士
北京邮电大学通信工程专业学士
研究方向为神经网络与深度学习,机器学习
精通Python编程,数据结构,常见算法
课程内容:
TensorFlow之中如何添加L1, L2正则化
TensorFlow之中如何使用dropout
TensorFlow使用不同的优化算法
实践目标:
通过本次实战课程学习,能够掌握如何在TensorFlow程序中添加正则化,dropout,以及使用不同的优化算法。
适用人群:
对于深度学习和TensorFlow框架有基本了解。
课程时间:2017年12月14号(周四)20:00—21:00
上课方式:天学网人工智能学院腾讯课堂视频直播
如何报名
领取专属 10元无门槛券
私享最新 技术干货