自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

种树最好的时间是10年前,其次是现在!!!

微信订阅号:【程序员管小亮】,博主声明:所有博文的编写,主要参考网上资料和书籍,并结合个人见解,仅供学习、交流使用 :)

我也要用

TensorFlow

关注数:4 文章数:17 访问量:131052

作者: 我是管小亮

纸上得来终觉浅,绝知此事要躬行
  • 原创 trunc_normal = lambda stddev: tf.truncated_normal_initializer(0.0, stddev)解析

    在读Inception代码的时候,遇到代码,import tensorflow as tfslim = tf.contrib.slimtrunc_normal = lambda stddev: tf.truncated_normal_initializer(0.0, stddev)分享一下它的工作原理。1、首先是引入TensorFlow模块2、lambda表达式,通常是在需要一个函...
    2019-03-25 11:18:26 2184 0
  • 原创 tf.identity()函数解析(最清晰的解释)

    这两天看batch normalization的代码时,学到滑动平均窗口函数ExponentialMovingAverage时,碰到一个函数tf.identity()函数,特此记录。tf.identity( input, name=None )#Return a tensor with the same shape and contents as input.#返回一个te...
    2019-03-30 14:01:52 7189 0
  • 原创 tf.nn.batch_normalization()函数解析(最清晰的解释)

    这两天在看batch normalization的代码时碰到了这个tf.nn.moments()函数,特此记录。# 用于最中执行batch normalization的函数tf.nn.batch_normalization( x, mean, variance, offset, scale, variance_epsilon, name=...
    2019-03-30 14:38:30 9812 2
  • 原创 tf.placeholder()函数解析(最清晰的解释)

    最近学习中碰到了以前学过的tf.placeholder()函数,特此记录。tf.placeholder( dtype, shape=None, name=None)参数:dtype:数据类型。常用的是tf.float32,tf.float64等数值类型shape:数据形状。默认是None,就是一维值,也可以多维,比如:[None,3],表示列是3,行不一定n...
    2019-03-31 15:03:08 8049 0
  • 原创 tf.reduce_mean()函数解析(最清晰的解释)

    最近学习中碰到了以前学过的tf.placeholder()函数,特此记录。tf.reduce_mean 函数用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的平均值,主要用作降维或者计算tensor(图像)的平均值。tf.reduce_mean( input_tensor, axis=None, keep_dims=False, name=None, red...
    2019-03-31 15:29:11 15498 3
  • 原创 tf.nn.softmax_cross_entropy_with_logits()函数解析(最清晰的解释)

    最近学习中碰到了以前学过的tf.nn.sigmoid_cross_entropy_with_logits()函数,特此记录。tf.nn.sigmoid_cross_entropy_with_logits()函数用于计算交叉熵。tf.nn.sigmoid_cross_entropy_with_logits( _sentinel=None, labels=None, logits=Non...
    2019-03-31 18:46:14 5671 2
  • 原创 tf.get_variable()和tf.Variable()的区别(最清晰的解释)

    ====1、tf.Variable()
    2019-04-27 14:27:01 8110 8
  • 原创 tf.cond()函数解析(最清晰的解释)

    近期看batch_normalization的代码时碰到一个函数tf.cond(),特此记录。首先看一下函数的说明文档:format:tf.cond(pred, fn1, fn2, name=None)Return :either fn1() or fn2() based on the boolean predicate `pred`.(注意这里,也就是说'fnq'和‘fn2’是两个函数...
    2019-03-28 21:51:20 5401 1
  • 原创 tf.name_scope()、tf.variable_scope()函数解析(最清晰的解释)

    最近在看tf.slim实现的inception_v1的代码,发现一个函数tf.variable_scope()不太清楚,查询到网上多对比name和variable,特意记录一下。论文翻译:GoogLeNet - Going Deeper with Convolutions全文翻译代码实现1 tf.name_scope(‘scope_name’)tf.name_scope 主要结合 tf....
    2019-03-26 20:22:03 2373 0
  • 原创 tf.expand_dims()函数解析(最清晰的解释)

    tf.expand_dims( input, axis=None, name=None, dim=None)其中:input是输入张量。axis是指定扩大输入张量形状的维度索引值。dim等同于轴,一般不推荐使用。1. axis:import tensorflow as tf# 't' is a tensor of shape [2]t = tf...
    2020-04-04 21:01:10 8466 0
  • 原创 slim.arg_scope()函数解析(最清晰的解释)

    Tensorflow-slim作为一种轻量级的tensorflow库,使得模型的构建,训练,测试都变得更加简单,其主要目的是来做所谓的“代码瘦身”。在slim库中对很多常用的函数进行了定义,slim.arg_scope()是slim库中经常用到的函数之一。slim.arg_scope常用于为tensorflow里的layer函数提供默认值,以使构建模型的代码更加紧凑苗条(slim)。函数的定...
    2019-03-26 22:17:49 3141 0
  • 原创 tf.shape(x)、x.shape、x.get_shape()函数解析(最清晰的解释)

    最近看到了tf.shape(x)、x.shape和x.get_shape()三个函数,不知道他们的差别,所以记录一下。import tensorflow as tfx = tf.constant([[0,1,2],[3,4,5],[6,7,8]])print(type(x.shape))print(type(x.get_shape()))print(type(tf.shape(x))...
    2019-03-28 22:41:13 5000 0
  • 原创 tf.nn.moments()函数解析(最清晰的解释)

    这两天在看batch normalization的代码时碰到了这个tf.nn.moments()函数,特此记录。# 用于在指定维度计算均值与方差tf.nn.moments( x, axes, shift=None, # pylint: disable=unused-argument name=None, keep_dims=False)参数:x:一...
    2019-03-29 20:49:56 9279 2
  • 原创 tf.train.ExponentialMovingAverage()函数解析(最清晰的解释)

    近来看batch normalization的代码时,遇到tf.train.ExponentialMovingAverage()函数,特此记录。TensorFlow官网上对于这个方法的介绍:Some training algorithms, such as GradientDescent and Momentum often benefit from maintaining a moving ...
    2019-03-29 22:14:34 5334 27
  • 原创 tf.train.AdamOptimizer()函数解析

    tf.train.AdamOptimizer()函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。tf.train.AdamOptimizer.__init__( learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, use_locking=False, name='Adam')...
    2019-03-31 19:09:36 26701 8
  • 原创 tf.concat()函数解析(最清晰的解释)

    tf.concat的官方解释tf.concat( values, axis, name='concat')其中:values应该是一个tensor的list或者tuple,里面是准备连接的矩阵或者数组。axis则是我们准备连接的矩阵或者数组的维度。axis=0代表在第0个维度拼接axis=1代表在第1个维度拼接axis=-1表示在倒数第1个维度拼接负...
    2019-03-25 16:03:01 3557 0
  • 原创 tf.TFRecordReader()函数解析(最清晰的解释)

    读取tfrecord数据从TFRecords文件中读取数据, 首先需要用tf.train.string_input_producer生成一个解析队列。之后调用tf.TFRecordReader的tf.parse_single_example解析器。如下图:解析器首先读取解析队列,返回serialized_example对象,之后调用tf.parse_single_example操作将Exam...
    2019-05-16 20:56:32 5287 11