Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >tensorflow dropout实现

tensorflow dropout实现

作者头像
Steve Wang
发布于 2019-05-26 07:03:32
发布于 2019-05-26 07:03:32
93100
代码可运行
举报
文章被收录于专栏:从流域到海域从流域到海域
运行总次数:0
代码可运行

指定keep_prob即可,下面的例子使用了占位符。为了简便起见,直接给keep_prob赋一个定值可能更好,但占位符在每次运行时都可以指定keep_prob的值。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
keep_prob = tf.placeholder('float')

L1 = ...

L1_d = tf.nn.dropout(L1, keep_prob)

# Train
sess.run(optimizer, feed_dict={X: batch_xs, Y: batch_ys, keep_prob: 0.7})
# Evaluation
print("Accuracy", accuracy.eval({X: mnist.test.images, Y: mnist.test.labels, keep_prob: 1}))

更详细的例子:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# dropout (keep_prob) rate  0.7 on training, but should be 1 for testing
keep_prob = tf.placeholder(tf.float32)

W1 = tf.get_variable("W1", shape=[784, 512])
b1 = tf.Variable(tf.random_normal([512]))
L1 = tf.nn.relu(tf.matmul(X, W1) + b1)
L1 = tf.nn.dropout(L1, keep_prob=keep_prob)

W2 = tf.get_variable("W2", shape=[512, 512])
b2 = tf.Variable(tf.random_normal([512]))
L2 = tf.nn.relu(tf.matmul(L1, W2) + b2)
L2 = tf.nn.dropout(L2, keep_prob=keep_prob)
…
# train model
for epoch in range(training_epochs):
    ...
    for i in range(total_batch):
        batch_xs, batch_ys = mnist.train.next_batch(batch_size)
        feed_dict = {X: batch_xs, Y: batch_ys, keep_prob: 0.7}
        c, _ = sess.run([cost, optimizer], feed_dict=feed_dict)
        avg_cost += c / total_batch

# Test model and check accuracy
correct_prediction = tf.equal(tf.argmax(hypothesis, 1), tf.argmax(Y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
print('Accuracy:', sess.run(accuracy, feed_dict={
     X: mnist.test.images, Y: mnist.test.labels, keep_prob: 1}))
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019年02月15日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
撒花!《神经网络与深度学习》中文教程正式开源!全书 pdf、ppt 和代码一同放出...
红色石头之前在某乎上回答“机器学习该怎么入门”这个问题的时候,曾经给入门学者提过一个建议,就是放弃海量资料。确实,资料不在多而在精!一份优秀的资料完全可以帮助我们快速地入门和进阶。
红色石头
2022/01/12
8710
撒花!《神经网络与深度学习》中文教程正式开源!全书 pdf、ppt 和代码一同放出...
用 Tensorflow 建立 CNN
稍稍乱入的CNN,本文依然是学习周莫烦视频的笔记。 还有 google 在 udacity 上的 CNN 教程。 CNN(Convolutional Neural Networks) 卷积神经网络简单
杨熹
2018/04/02
7320
用 Tensorflow 建立 CNN
用Tensorflow实现卷积神经网络CNN
一、数据准备 实验数据使用MNIST数据集。 MNIST 数据集已经是一个被”嚼烂”了的数据集, 很多教程都会对它”下手”, 几乎成为一个 “典范”。 在很多tensorflow教程中,用下面这一句下载mnist数据集: mnist = input_data.read_data_sets('MNIST_data', one_hot=True) 但实际运行时根本无法通过网络下载,解决方案就是手工下载数据,然后直接导入使用。 下载地址:http://yann.lecun.com/exdb/mnist/ 4个
海天一树
2018/04/17
9190
tensorflow中实现神经网络训练手写数字数据集mnist
基于tensorflow实现一个简单的三层神经网络,并使用它训练mnist数据集,神经网络三层分别为:
OpenCV学堂
2018/07/26
1K0
tensorflow中实现神经网络训练手写数字数据集mnist
tensorflow笔记(五)之MNIST手写识别系列二
http://www.cnblogs.com/fydeblog/p/7455233.html
努力努力再努力F
2018/09/11
3250
tensorflow笔记(五)之MNIST手写识别系列二
TensorFlow Tutorial-1
1、Why TensorFlow? 网上有关介绍太多了,我就不多说了,这里主要注重使用。 Intro.PNG github.PNG 2、Programing model 2.1.Big Idea 将数
用户1332428
2018/03/08
7730
TensorFlow Tutorial-1
(数据科学学习手札36)tensorflow实现MLP
  我们在前面的数据科学学习手札34中也介绍过,作为最典型的神经网络,多层感知机(MLP)结构简单且规则,并且在隐层设计的足够完善时,可以拟合任意连续函数,而除了利用前面介绍的sklearn.neural_network中的MLP来实现多层感知机之外,利用tensorflow来实现MLP更加形象,使得使用者对要搭建的神经网络的结构有一个更加清醒的认识,本文就将对tensorflow搭建MLP模型的方法进行一个简单的介绍,并实现MNIST数据集的分类任务;
Feffery
2018/05/19
1.7K3
tensorflow入门:Neural Network for mnist
我们使用tensorflow实现类似于上图的简单深度网络,用于mnist数据集预测模型的实现。理论方面不再赘述。
Steve Wang
2019/05/26
4890
TensorFlow -2: 用 CNN 识别数字
本文介绍了如何使用 TensorFlow 在 MNIST 数据集上训练一个手写数字识别的模型。首先,文章介绍了 TensorFlow 的基本概念和如何在 TensorFlow 中实现简单的线性回归模型。然后,文章详细说明了如何使用 TensorFlow 中的卷积神经网络(CNN)和全连接层来实现手写数字识别模型。最后,文章通过在 TensorFlow 中实现一个简单的手写数字识别器,为读者提供了一个完整的实践案例。
杨熹
2017/07/31
2.6K0
TensorFlow -2: 用 CNN 识别数字
TensorFlow绘制loss/accuracy曲线
双y轴曲线图例合并是一个棘手的操作,现以MNIST案例中loss/accuracy绘制曲线。
全栈程序员站长
2022/11/17
9330
TensorFlow绘制loss/accuracy曲线
tensorflow oom报错OOM when allocating tensor with shape
今天在GPU上运行卷积神经网络手写数字,报了如下错误Resource exhausted: OOM when allocating tensor with shape[10000,32,28,28] 一开始还不知道因为什么,因为我的训练集我已经分批训练了啊,竟然换回出现这样的问题,后来在StackOverflow上发现了原因。原来我在做测试的时候一下子把测试集全部读进去了,这就造成了显卡的显存不能容纳这么多的数据,造成的崩溃,只需要改改最后测试就行了。 即将print("test accuracy
听城
2018/04/27
2.4K0
独家 | 一文读懂TensorFlow基础
本文长度为7196字,建议阅读10分钟 本文为你讲解如何使用Tensorflow进行机器学习和深度学习。 1. 前言 深度学习算法的成功使人工智能的研究和应用取得了突破性进展,并极大地改变了我们的生活。越来越多的开发人员都在学习深度学习方面的开发技术。Google推出的TensorFlow是目前最为流行的开源深度学习框架,在图形分类、音频处理、推荐系统和自然语言处理等场景下都有丰富的应用。尽管功能强大,该框架学习门槛并不高,只要掌握Python安装和使用,并对机器学习和神经网络方面的知识有所了解就可以上
数据派THU
2018/01/30
1.1K0
独家 | 一文读懂TensorFlow基础
三天速成 TensorFlow课件分享
该教程第一天先介绍了深度学习和机器学习的潜力与基本概念,而后便开始探讨深度学习框架 TensorFlow。首先我们将学到如何安装 TensorFlow,其实我们感觉 TensorFlow 环境配置还是相当便捷的,基本上按照官网的教程就能完成安装。随后就从「Hello TensorFlow」开始依次讲解计算图、占位符、张量等基本概念。
刘盼
2018/03/16
2K0
三天速成 TensorFlow课件分享
tensorflow入门:CNN for MNIST
使用tensorflow构建如上图所示的CNN用于对MNIST数据集进行softmax classification。
Steve Wang
2019/05/26
5000
MLP算法及其实现
Softmax回归可以算是多分类问题logistic回归,它和神经网络的最大区别是没有隐含层。理论上只要隐含节点足够多,即时只有一个隐含层的神经网络也可以拟合任意函数,同时隐含层越多,越容易拟合复杂结构。为了拟合复杂函数需要的隐含节点的数目,基本上随着隐含层的数量增多呈指数下降的趋势,也就是说层数越多,神经网络所需要的隐含节点可以越少。层数越深,概念越抽象,需要背诵的知识点就越少。在实际应用中,深层神经网络会遇到许多困难,如过拟合、参数调试、梯度弥散等。
狼啸风云
2019/11/03
2.6K0
使用tensorflow导入已经下载好的mnist数据集()
先去下载区下载一个mnist数据集,然后放在目录下,然后改folder路径就可以成功读取了
用户1148525
2019/05/27
2.4K0
数据科学 IPython 笔记本 一、TensorFlow
一、TensorFlow 原文:TensorFlow Tutorials 译者:飞龙 协议:CC BY-NC-SA 4.0 1.1 TensorFlow 基本操作 致谢:派生于 Aymeric Damien 的 TensorFlow 示例 配置 参考配置指南。 import tensorflow as tf # 基本的常量操作 # 由构造器返回的值 # 表示常量操作的输出 a = tf.constant(2) b = tf.constant(3) # 加载默认图 with tf.Session(
ApacheCN_飞龙
2022/05/07
3890
数据科学 IPython 笔记本 一、TensorFlow
SELU︱在keras、tensorflow中使用SELU激活函数
本文介绍了一种用于多模态机器学习的手写识别系统,该系统基于深度学习技术,可以识别多种手写输入格式,包括素描、手写数字和手写字母等。该系统通过卷积神经网络(CNN)和递归神经网络(RNN)的组合,可以在多个数据集上实现高效的识别和分类。
悟乙己
2018/01/02
2.5K0
SELU︱在keras、tensorflow中使用SELU激活函数
用Tensorflow识别手写体
数据准备 import tensorflow as tfimport tensorflow.examples.tutorials.mnist.input_data as input_datamnist = input_data.read_data_sets("MNIST_data/", one_hot=True) WARNING:tensorflow:From <ipython-input-1-6bfbaa60ed82>:3: read_data_sets (from tensorflow.contrib.
用户3577892
2020/06/12
4.2K0
tensorflow学习笔记_02
上一篇笔记采用一个线性关系的神经层处理了MNIST的训练数据,最后得到一个准确率一般的神经网络。但其实对于这种图像识别的场景,tensorflow里还可以使用卷积神经网络技术进行准确率更高的机器学习。 卷积与池化 卷积是一个数学上的概念,简单说就是拿卷积核从原始图像里提取特征映射,将一张图片转化为多张包含特征映射的图片。理解卷积可以读一下这篇帖子,里面除了很抽象的数学定义外,还有一些便于理解的示例。 池化主要用来浓缩卷积层的输出结果并创建一个压缩版本的信息并输出。 示例程序 学习卷积神经网络,我也参照官方的
jeremyxu
2018/05/10
6510
相关推荐
撒花!《神经网络与深度学习》中文教程正式开源!全书 pdf、ppt 和代码一同放出...
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验