本文深入探讨了在Keras中从零开始训练VGG16/19模型时遇到的不收敛问题。通过分析发现,该问题主要源于数据增强和图像归一化层在模型定义中的错误应用,导致这些预处理步骤未能正确作用于模型输入。文章提供了详细的错误分析、正确的模型构建方法及示例代码,旨在帮助开发者避免类似陷阱,确保深度学习模型训练的有效性。
在深度学习模型训练过程中,尤其是在从零开始训练大型卷积神经网络(CNN)如VGG系列时,模型不收敛或准确率停滞在极低水平是一个常见但令人困惑的问题。尽管AlexNet等相对简单的模型可能表现良好,VGG16和VGG19却可能完全无法学习,其训练准确率甚至无法突破0.1。这种现象通常指向模型结构、数据预处理或训练配置中的潜在错误。
问题描述与初步观察
某项研究旨在利用CNN进行掌纹识别,并在FYODB数据集上训练了包括AlexNet、VGG16和VGG19在内的多种模型。实验发现,AlexNet模型能够达到95%以上的测试准确率,但VGG16和VGG19模型在从零训练时却表现出严重的学习障碍,训练准确率始终徘徊在极低水平。值得注意的是,当使用预训练的VGG16权重进行迁移学习时,模型性能正常,同样能达到95%以上的准确率。这表明VGG模型的架构本身并非问题所在,而是在从零训练的特定设置中存在缺陷。
所使用的图像尺寸为(224, 224, 3),数据集包含160个类别和6400个样本。训练过程采用Keras框架,并定义了数据增强层和VGG模型结构。以下是VGG16模型构建代码片段中的关键部分:
data_augmentation = keras.Sequential( [ layers.RandomFlip("horizontal"), layers.RandomRotation(0.1), layers.RandomZoom(0.1), layers.RandomContrast(0.1), layers.RandomTranslation(0.1, 0.1), layers.RandomHeight(0.1), layers.RandomWidth(0.1), ] ) def make_vgg16_model(input_shape, num_classes): inputs = keras.Input(shape=input_shape) # Block 1 - 存在问题的代码段 x = data_augmentation(inputs) # 应用数据增强 x = layers.Rescaling(1.0 / 255)(inputs) # 应用归一化 x = layers.Conv2D(32, (3, 3), activation='relu', padding='same')(inputs) # 第一个卷积层 x = layers.Conv2D(32, (3, 3), activation='relu', padding='same')(x) x = layers.MaxPooling2D((2, 2), strides=(2, 2))(x) # ... 后续VGG层定义省略 ... # Flatten and Fully Connected Layers x = layers.Flatten()(x) x = layers.Dense(4096, activation='relu')(x) x = layers.Dropout(0.5)(x) x = layers.Dense(4096, activation='relu')(x) x = layers.Dropout(0.5)(x) outputs = layers.Dense(num_classes, activation='softmax')(x) return keras.Model(inputs, outputs)
训练输出示例显示,模型的准确率始终维持在极低水平,例如0
评论(已关闭)
评论已关闭