从零开始学keras(八)

自闭症网瘾萝莉.ら 提交于 2021-02-18 01:52:38

点击上方“计算机视觉cv”即可“进入公众号”

重磅干货第一时间送达

预训练网络

  想要将深度学习应用于小型图像数据集,一种常用且非常高效的方法是使用预训练网络。预训练网络(pretrained network)是一个保存好的网络,之前已在大型数据集(通常是大规模图像分类任务)上训练好。如果这个原始数据集足够大且足够通用,那么预训练网络学到的特征的空间层次结构可以有效地作为视觉世界的通用模型,因此这些特征可用于各种不同的计算机视觉问题,即使这些新问题涉及的类别和原始任务完全不同。举个例子,你在 ImageNet 上训练了一个网络(其类别主要是动物和日常用品),然后将这个训练好的网络应用于某个不相干的任务,比如在图像中识别家具。这种学到的特征在不同问题之间的可移植性,是深度学习与许多早期浅层学习方法相比的重要优势,它使得深度学习对小数据问题非常有效。

  本例中,假设有一个在 ImageNet 数据集(140 万张标记图像,1000 个不同的类别)上训练好的大型卷积神经网络。ImageNet 中包含许多动物类别,其中包括不同种类的猫和狗,因此可以认为它在猫狗分类问题上也能有良好的表现。

  我们将使用 VGG16 架构,它由 Karen Simonyan 和 Andrew Zisserman 在 2014 年开发。对于ImageNet,它是一种简单而又广泛使用的卷积神经网络架构。虽然 VGG16 是一个比较旧的模 型,性能远比不了当前最先进的模型,而且还比许多新模型更为复杂,但我之所以选择它,是因为它的架构与你已经熟悉的架构很相似,因此无须引入新概念就可以很好地理解。这可能是你第一次遇到这种奇怪的模型名称——VGG、ResNet、Inception、Inception-ResNet、Xception 等。你会习惯这些名称的,因为如果你一直用深度学习做计算机视觉的话,它们会频繁出现。

  使用预训练网络有两种方法:特征提取(feature extraction)微调模型(fine-tuning)。两种方法我们都会介绍。首先来看特征提取。

特征提取

  特征提取是使用之前网络学到的表示来从新样本中提取出有趣的特征。然后将这些特征输入一个新的分类器,从头开始训练。

  如前所述,用于图像分类的卷积神经网络包含两部分:首先是一系列池化层和卷积层,最后是一个密集连接分类器。第一部分叫作模型的卷积基(convolutional base)。对于卷积神经网络而言,特征提取就是取出之前训练好的网络的卷积基,在上面运行新数据,然后在输出上面 训练一个新的分类器.

  为什么仅重复使用卷积基?我们能否也重复使用密集连接分类器?一般来说,应该避免这么做。原因在于卷积基学到的表示可能更加通用,因此更适合重复使用。卷积神经网络的特征图表示通用概念在图像中是否存在,无论面对什么样的计算机视觉问题,这种特征图都可能很有用。但是,分类器学到的表示必然是针对于模型训练的类别,其中仅包含某个类别出现在整张图像中的概率信息。此外,密集连接层的表示不再包含物体在输入图像中的位置信息。密集连接层舍弃了空间的概念,而物体位置信息仍然由卷积特征图所描述。如果物体位置对于问题很重要,那么密集连接层的特征在很大程度上是无用的。

  注意,某个卷积层提取的表示的通用性(以及可复用性)取决于该层在模型中的深度。模型中更靠近底部的层提取的是局部的、高度通用的特征图(比如视觉边缘、颜色和纹理),而更靠近顶部的层提取的是更加抽象的概念(比如“猫耳朵”或“狗眼睛”)。因此,如果你的新数据集与原始模型训练的数据集有很大差异,那么最好只使用模型的前几层来做特征提取,而不是使用整个卷积基。

  本例中,由于 ImageNet 的类别中包含多种狗和猫的类别,所以重复使用原始模型密集连接层中所包含的信息可能很有用。但我们选择不这么做,以便涵盖新问题的类别与原始模型的类别不一致的更一般情况。

  我们来实践一下,使用在 ImageNet 上训练的 VGG16 网络的卷积基从 猫狗图像中提取有趣的特征,然后在这些特征上训练一个猫狗分类器。VGG16 等模型内置于 Keras 中。你可以从 keras.applications 模块中导入。下面是keras.applications 中的一部分图像分类模型(都是在 ImageNet 数据集上预训练得到的):

  • Xception

  • Inception V3

  • ResNet50

  • VGG16

  • VGG19

  • MobileNet 我们将 VGG16 模型实例化。


       
     
     
     
  1. from keras.applications import VGG16

  2. conv_base = VGG16(weights='imagenet',

  3. include_top=False,

  4. input_shape=(150, 150, 3))

  5. model.summary()

  6. 输出和为网络的层数

这里向构造函数中传入了三个参数。

  • weights 指定模型初始化的权重检查点。

  • include_top 指定模型最后是否包含密集连接分类器。默认情况下,这个密集连接分类器对应于 ImageNet 的 1000 个类别。因为我们打算使用自己的密集连接分类器(只有 两个类别:cat 和 dog),所以不需要包含它。

  • input_shape 是输入到网络中的图像张量的形状。这个参数完全是可选的,如果不传入这个参数,那么网络能够处理任意形状的输入。VGG16 卷积基的详细架构如下所示。它和你已经熟悉的简单卷积神经网络很相似。

最后输出的特征图形状为 (4, 4, 512)。我们将在这个特征上添加一个密集连接分类器。接下来,下一步有两种方法可供选择。
  • 在你的数据集上运行卷积基,将输出保存成硬盘中的 Numpy 数组,然后用这个数据作 为输入,输入到独立的密集连接分类器中(与本书第一部分介绍的分类器类似)。这种 方法速度快,计算代价低,因为对于每个输入图像只需运行一次卷积基,而卷积基是目 前流程中计算代价最高的。但出于同样的原因,这种方法不允许你使用数据增强。

  • 在顶部添加 Dense 层来扩展已有模型(即 conv_base),并在输入数据上端到端地运行 整个模型。这样你可以使用数据增强,因为每个输入图像进入模型时都会经过卷积基。但出于同样的原因,这种方法的计算代价比第一种要高很多。

这两种方法我们都会介绍。首先来看第一种方法的代码:保存你的数据在 conv_base 中的输出,然后将这些输出作为输入用于新模型。

       
     
     
     
  1. import os

  2. import numpy as np

  3. from keras.preprocessing.image import ImageDataGenerator

  4. base_dir = 'data/cats_and_dogs_small'

  5. train_dir = os.path.join(base_dir, 'train')

  6. validation_dir = os.path.join(base_dir, 'validation')

  7. test_dir = os.path.join(base_dir, 'test')

  8. datagen = ImageDataGenerator(rescale=1./255)

  9. batch_size = 20

  10. def extract_features(directory, sample_count):

  11. features = np.zeros(shape=(sample_count, 4, 4, 512))

  12. labels = np.zeros(shape=(sample_count))

  13. generator = datagen.flow_from_directory(

  14. directory,

  15. target_size=(150, 150),

  16. batch_size=batch_size,

  17. class_mode='binary')

  18. i = 0

  19. for inputs_batch, labels_batch in generator:

  20. features_batch = conv_base.predict(inputs_batch)

  21. features[i * batch_size : (i + 1) * batch_size] = features_batch

  22. labels[i * batch_size : (i + 1) * batch_size] = labels_batch

  23. i += 1

  24. if i * batch_size >= sample_count:

  25. # Note that since generators yield data indefinitely in a loop,

  26. # we must `break` after every image has been seen once.

  27. #注意,这些生成器在循环中不断生成数据,所以你必须在读取完所有图像后终止循环

  28. break

  29. return features, labels

  30. train_features, train_labels = extract_features(train_dir, 2000)

  31. validation_features, validation_labels = extract_features(validation_dir, 1000)

  32. test_features, test_labels = extract_features(test_dir, 1000

输出为:
Found 2000 images belonging to 2 classes.
Found 1000 images belonging to 2 classes.
Found 1000 images belonging to 2 classes.
目前,提取的特征形状为 (samples, 4, 4, 512)。我们要将其输入到密集连接分类器中, 所以首先必须将其形状展平为 (samples, 8192)。

       
     
     
     
  1. train_features = np.reshape(train_features, (2000, 4 * 4 * 512))

  2. validation_features = np.reshape(validation_features, (1000, 4 * 4 * 512))

  3. test_features = np.reshape(test_features, (1000, 4 * 4 * 512))

现在你可以定义你的密集连接分类器(注意要使用 dropout 正则化),并在刚刚保存的数据和标签上训练这个分类器。

       
     
     
     
  1. from keras import models

  2. from keras import layers

  3. from keras import optimizers

  4. model = models.Sequential()

  5. model.add(layers.Dense(256, activation='relu', input_dim=4 * 4 * 512))

  6. model.add(layers.Dropout(0.5))

  7. model.add(layers.Dense(1, activation='sigmoid'))

  8. model.compile(optimizer=optimizers.RMSprop(lr=2e-5),

  9. loss='binary_crossentropy',

  10. metrics=['acc'])

  11. history = model.fit(train_features, train_labels,

  12. epochs=30,

  13. batch_size=20,

  14. validation_data=(validation_features, validation_labels))

部分迭代次数:

训练速度非常快,因为你只需处理两个 Dense 层。即使在 CPU 上运行,每轮的时间也不到一秒钟。
我们来看一下训练期间的损失曲线和精度曲线

       
     
     
     
  1. iimport matplotlib.pyplot as plt

  2. acc = history.history['acc']

  3. val_acc = history.history['val_acc']

  4. loss = history.history['loss']

  5. val_loss = history.history['val_loss']

  6. epochs = range(len(acc))

  7. plt.plot(epochs, acc, 'bo', label='Training acc')

  8. plt.plot(epochs, val_acc, 'b', label='Validation acc')

  9. plt.title('Training and validation accuracy')

  10. plt.legend()

  11. plt.figure()

  12. plt.plot(epochs, loss, 'bo', label='Training loss')

  13. plt.plot(epochs, val_loss, 'b', label='Validation loss')

  14. plt.title('Training and validation loss')

  15. plt.legend()

  16. plt.show()

我们的验证精度达到了约 90%,比上一节从头开始训练的小型模型效果要好得多。但从图中也可以看出,虽然 dropout 比率相当大,但模型几乎从一开始就过拟合。这是因为本方法没有使用数据增强,而数据增强对防止小型图像数据集的过拟合非常重要。
下面我们来看一下特征提取的第二种方法,它的速度更慢,计算代价更高,但在训练期间可以使用数据增强。这种方法就是:扩展 conv_base 模型,然后在输入数据上端到端地运行模型。
模型的行为和层类似,所以你可以向 Sequential 模型中添加一个模型(比如 conv_base),就像添加一个层一样。

       
     
     
     
  1. from keras import models

  2. from keras import layers

  3. model = models.Sequential()

  4. model.add(conv_base)

  5. model.add(layers.Flatten())

  6. model.add(layers.Dense(256, activation='relu'))

  7. model.add(layers.Dense(1, activation='sigmoid'))

VGG16 的卷积基有 14 714 688 个参数,非常多。在其上添加的分类器有 200 万个参数。
在编译和训练模型之前,一定要“冻结”卷积基。冻结(freeze)一个或多个层是指在训练 过程中保持其权重不变。如果不这么做,那么卷积基之前学到的表示将会在训练过程中被修改。因为其上添加的 Dense 层是随机初始化的,所以非常大的权重更新将会在网络中传播,对之前学到的表示造成很大破坏。
在 Keras 中,冻结网络的方法是将其 trainable 属性设为 False。

       
     
     
     
  1. print('This is the number of trainable weights '

  2. 'before freezing the conv base:', len(model.trainable_weights))

  3. conv_base.trainable = False

  4. print('This is the number of trainable weights '

  5. 'after freezing the conv base:', len(model.trainable_weights))

如此设置之后,只有添加的两个 Dense 层的权重才会被训练。总共有 4 个权重张量,每层2 个(主权重矩阵和偏置向量)。注意,为了让这些修改生效,你必须先编译模型。如果在编译之后修改了权重的 trainable 属性,那么应该重新编译模型,否则这些修改将被忽略。
现在你可以开始训练模型了,使用和前一个例子相同的数据增强设置。

       
     
     
     
  1. from keras.preprocessing.image import ImageDataGenerator

  2. train_datagen = ImageDataGenerator(

  3. rescale=1./255,

  4. rotation_range=40,

  5. width_shift_range=0.2,

  6. height_shift_range=0.2,

  7. shear_range=0.2,

  8. zoom_range=0.2,

  9. horizontal_flip=True,

  10. fill_mode='nearest')

  11. # Note that the validation data should not be augmented!

  12. # 注意,不能增强验证数据

  13. test_datagen = ImageDataGenerator(rescale=1./255)

  14. train_generator = train_datagen.flow_from_directory(

  15. # This is the target directory(目标目录)

  16. train_dir,

  17. # All images will be resized to 150x150(将所有图像的大小调整为 150×150)

  18. target_size=(150, 150),

  19. batch_size=20,

  20. # Since we use binary_crossentropy loss, we need binary labels

  21. # 因为使用了 binary_crossentropy损失,所以需要用二进制标签

  22. class_mode='binary')

  23. validation_generator = test_datagen.flow_from_directory(

  24. validation_dir,

  25. target_size=(150, 150),

  26. batch_size=20,

  27. class_mode='binary')

  28. model.compile(loss='binary_crossentropy',

  29. optimizer=optimizers.RMSprop(lr=2e-5),

  30. metrics=['acc'])

  31. history = model.fit_generator(

  32. train_generator,

  33. steps_per_epoch=100,

  34. epochs=30,

  35. validation_data=validation_generator,

  36. validation_steps=50,

  37. verbose=2)

  38. model.save('cats_and_dogs_small_3.h5')

再次绘制结果看看。


       
     
     
     
  1. acc = history.history['acc']

  2. val_acc = history.history['val_acc']

  3. loss = history.history['loss']

  4. val_loss = history.history['val_loss']

  5. epochs = range(len(acc))

  6. plt.plot(epochs, acc, 'bo', label='Training acc')

  7. plt.plot(epochs, val_acc, 'b', label='Validation acc')

  8. plt.title('Training and validation accuracy')

  9. plt.legend()

  10. plt.figure()

  11. plt.plot(epochs, loss, 'bo', label='Training loss')

  12. plt.plot(epochs, val_loss, 'b', label='Validation loss')

  13. plt.title('Training and validation loss')

  14. plt.legend()

  15. plt.show()

我们来再次绘制结果。如你所见,验证精度约为 96%。这比从头开始训练的小型卷积神经网络要好得多。

微调模型

另一种广泛使用的模型复用方法是模型微调(fine-tuning),与特征提取互为补充。对于用于特征提取的冻结的模型基,微调是指将其顶部的几层“解冻”,并将这解冻的几层和新增加的部分(本例中是全连接分类器)联合训练(见下图)。之所以叫作微调,是因为它只是略微调整了所复用模型中更加抽象的表示,以便让这些表示与手头的问题更加相关。
前面说过,冻结 VGG16 的卷积基是为了能够在上面训练一个随机初始化的分类器。同理, 只有上面的分类器已经训练好了,才能微调卷积基的顶部几层。如果分类器没有训练好,那么训练期间通过网络传播的误差信号会特别大,微调的几层之前学到的表示都会被破坏。因此,微调网络的步骤如下。
  • (1) 在已经训练好的基网络(base network)上添加自定义网络。

  • (2) 冻结基网络。

  • (3) 训练所添加的部分。

  • (4) 解冻基网络的一些层。

  • (5) 联合训练解冻的这些层和添加的部分。你在做特征提取时已经完成了前三个步骤。我们继续进行第四步:先解冻 conv_base,然后冻结其中的部分层。

我们将微调最后三个卷积层,也就是说,直到 block4_pool 的所有层都应该被冻结,而block5_conv1、block5_conv2 和 block5_conv3 三层应该是可训练的。为什么不微调更多层?为什么不微调整个卷积基?你当然可以这么做,但需要考虑以下几点。
  • 卷积基中更靠底部的层编码的是更加通用的可复用特征,而更靠顶部的层编码的是更专业化的特征。微调这些更专业化的特征更加有用,因为它们需要在你的新问题上改变用途。微调更靠底部的层,得到的回报会更少。

  • 训练的参数越多,过拟合的风险越大。卷积基有1500 万个参数,所以在你的小型数据集上训练这么多参数是有风险的。

因此,在这种情况下,一个好策略是仅微调卷积基最后的两三层。我们从上一个例子结束的地方开始,继续实现此方法。

       
     
     
     
  1. onv_base.trainable = True

  2. set_trainable = False

  3. for layer in conv_base.layers:

  4. if layer.name == 'block5_conv1':

  5. set_trainable = True

  6. if set_trainable:

  7. layer.trainable = True

  8. else:

  9. layer.trainable = False

现在你可以开始微调网络。我们将使用学习率非常小的 RMSProp 优化器来实现。之所以让学习率很小,是因为对于微调的三层表示,我们希望其变化范围不要太大。太大的权重更新可能会破坏这些表示。
现在我们实施模型微调:

       
     
     
     
  1. model.compile(loss='binary_crossentropy',

  2. optimizer=optimizers.RMSprop(lr=1e-5),

  3. metrics=['acc'])

  4. history = model.fit_generator(

  5. train_generator,

  6. steps_per_epoch=100,

  7. epochs=100,

  8. validation_data=validation_generator,

  9. validation_steps=50)

  10. model.save('cats_and_dogs_small_4.h5')


       
     
     
     
  1. 画精度图

  2. acc = history.history['acc']

  3. val_acc = history.history['val_acc']

  4. loss = history.history['loss']

  5. val_loss = history.history['val_loss']

  6. epochs = range(len(acc))

  7. plt.plot(epochs, acc, 'bo', label='Training acc')

  8. plt.plot(epochs, val_acc, 'b', label='Validation acc')

  9. plt.title('Training and validation accuracy')

  10. plt.legend()

  11. plt.figure()

  12. plt.plot(epochs, loss, 'bo', label='Training loss')

  13. plt.plot(epochs, val_loss, 'b', label='Validation loss')

  14. plt.title('Training and validation loss')

  15. plt.legend()

  16. plt.show()

这些曲线看起来包含噪声。为了让图像更具可读性,你可以将每个损失和精度都替换为指数移动平均值,从而让曲线变得平滑。下面用一个简单的实用函数来实现。

       
     
     
     
  1. def smooth_curve(points, factor=0.8):

  2. smoothed_points = []

  3. for point in points:

  4. if smoothed_points:

  5. previous = smoothed_points[-1]

  6. smoothed_points.append(previous * factor + point * (1 - factor))

  7. else:

  8. smoothed_points.append(point)

  9. return smoothed_points

  10. plt.plot(epochs,

  11. smooth_curve(acc), 'bo', label='Smoothed training acc')

  12. plt.plot(epochs,

  13. smooth_curve(val_acc), 'b', label='Smoothed validation acc')

  14. plt.title('Training and validation accuracy')

  15. plt.legend()

  16. plt.figure()

  17. plt.plot(epochs,

  18. smooth_curve(loss), 'bo', label='Smoothed training loss')

  19. plt.plot(epochs,

  20. smooth_curve(val_loss), 'b', label='Smoothed validation loss')

  21. plt.title('Training and validation loss')

  22. plt.legend()

  23. plt.show()

 

验证精度曲线变得更清楚。可以看到,精度值提高了 1%,从约 96% 提高到 97% 以上。

注意,从损失曲线上看不出与之前相比有任何真正的提高(实际上还在变差)。你可能感到奇怪,如果损失没有降低,那么精度怎么能保持稳定或提高呢?答案很简单:图中展示的是逐点(pointwise)损失值的平均值,但影响精度的是损失值的分布,而不是平均值,因为精度是模型预测的类别概率的二进制阈值。即使从平均损失中无法看出,但模型也仍然可能在改进。

现在,你可以在测试数据上最终评估这个模型。

       
     
     
     
  1. test_generator = test_datagen.flow_from_directory(

  2. test_dir,

  3. target_size=(150, 150),

  4. batch_size=20,

  5. class_mode='binary')

  6. test_loss, test_acc = model.evaluate_generator(test_generator, steps=50)

  7. print('test acc:', test_acc)

  8. 输出:Found 1000 images belonging to 2 classes.

  9. test acc: 0.938999991417

  我们得到了 97% 的测试精度。在关于这个数据集的原始 Kaggle 竞赛中,这个结果是最佳结果之一。但利用现代深度学习技术,你只用一小部分训练数据(约 10%)就得到了这个结果。训练 20 000 个样本与训练 2000 个样本是有很大差别。

未完待续,如果有什么不懂的欢迎随时交流!

AI研究学术交流群已成立啦!


扫码可添加博主微信,微信群有国际顶级Top期刊作者、高等学府博士生、硕士生等多位学者,本群致力于纯学术探讨,方向不限(一个好的学者必定是交叉学科下的产物)。想要进群一起学习探讨的童鞋可以加博主微信,备注学术交流、你也可以选择技术交流



▲扫码加群


本文分享自微信公众号 - 计算机视觉CV(jsjsjcv)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!