keras中激活函数的使用

匿名 (未验证) 提交于 2019-12-02 23:42:01

两种方式:

一、通过keras封装的网络层中的activation参数指定:

例如,下面的卷积层中的指定的激活函数为ReLU函数:

 from keras.model import Sequential from keras.layers import Conv2D from keras.layers import MaxPooling2D  model = Sequential() model.add(Conv2D(         kernel_size=(9,9),         activation="relu",         filters=48,         strides=(4,4),         input_shape = input_shape))  model.add(MaxPooling2D((3,3), strides=(2,2), padding='same'))  model.add(Conv2D(         strides=(1,1),         kernel_size=(3,3),         activation="relu",         filters=128))  model.add(Conv2D(         strides=(1,1),         kernel_size=(3,3),         activation="relu",         filters=128))  model.add(MaxPooling2D((3,3), strides=(2,2), padding='same')) 

二、通过Activation激活层单独封装:

 from keras.layers import Activation, Dense  model.add(Dense(64)) model.add(Activation('sigmoid'))

 model.add(Dense(64, activity_regularizer='sigmoid'))

文章来源: https://blog.csdn.net/zfjBIT/article/details/91790183
标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!