tf.fully_connected

泪湿孤枕 提交于 2019-12-01 18:35:29

 def fully_connected(

  inputs,  # 输入

  num_outputs,  #  本层输出的数量

  activation_fn=tf.nn.relu,  # 本层的激活函数(None则默认为线性)

  normalizer_fn=None,  # 正则化函数(用来替代偏置[biases],如果设置,则biases的两个选项dou)

  normalizer_params=None,  # 正则化参数

  weights_initializer=initializers.xavier_initializer(),  # 权重正则化

  weights_regularizer=None,  # 权重可选正则化

  biases_initializer=init_ops.zeros_initializer(),  #偏置初始化

  biases_regularizer=None,  # 对偏置的正则化选择

  reuse=None,  # 是否重用该层及其变量

  variables_collections=None,

  outputs_collections=None,

  trainable=True,  # 如果我们是微调网络,有的时候需要冻结某一层的参数,则该项设置为False

  scope=None):  # 可变范围

 

ps:写的不是很好,只能提供一些简单的帮助,随着以后学习的加深,我会慢慢再补充修改内容的,谢谢。

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!