当前位置: 首页 > news >正文

如何做自己网站的seo拖拽网站开发

如何做自己网站的seo,拖拽网站开发,wordpress没有分类目录,阳曲网站建设价格多少作业要求 具体实验内容根据实际情况自拟#xff0c;可以是传统的BP神经网络#xff0c;Hopfield神经网络#xff0c;也可以是深度学习相关内容。 数据集自选#xff0c;可以是自建数据集#xff0c;或MNIST#xff0c;CIFAR10等公开数据集。 实验报告内容包括但不限于可以是传统的BP神经网络Hopfield神经网络也可以是深度学习相关内容。 数据集自选可以是自建数据集或MNISTCIFAR10等公开数据集。 实验报告内容包括但不限于 实验目标和动机应明确说明输入数据和网络输出数据所设计相关网络的基本架构核心架构的具体实现网络训练和推理过程及说明实验结果比对和分析总结和讨论… 可根据需要自行扩展 评分标准符合上述内容和格式要求80分           根据算法原理介绍算法实现实验结果分析和讨论情况加分0-5分           根据实验结果分析和讨论各种神经网络方法的优缺点加分0~5分   讨论不同神经网络参数对性能的影响并尝试比对加分0~5分   有自己观点或体现自身工作量加分0-10分           总分不超过100分。 目录 1. 实验目标和动机 2 CNN算法的基本原理 3 LeNet5网络基本架构 4 核心架构的具体实现 5 网络训练和推理过程及说明 6 实验结果对比和分析 6.1 不同神经网络参数对性能的影响 6.1.1 批处理大小 6.1.2 学习率 6.1.3 优化算法 6.1.4 激活函数 6.2 实验结果的分析 7. 各种神经网络方法的优缺点 7.1多层感知机MLP 7.2卷积神经网络CNN 7.3 循环神经网络RNN 7.4 长短期记忆网络LSTM和门控循环单元GRU 8.总结和讨论 9.附录 1. 实验目标和动机 实验的目标是使用MNIST数据集进行手写字符识别。MNIST数据集包含许多手写数字的图像每个图像都是28x28像素的灰度图像表示数字0到9。 实验动机是探索使用卷积神经网络CNN进行图像识别任务并比较不同网络结构和参数配置对性能的影响。 输入数据 28x28像素的灰度图像 网络输出数据 预测的数字类别 2 CNN算法的基本原理 CNN是一种专门用于处理图像数据的深度学习模型其核心原理包括卷积层、池化层和全连接层。 卷积神经网络利用卷积层来提取图像特征。卷积操作通过滑动卷积核在输入图像上提取局部特征这有助于捕获图像中的边缘、纹理等信息并保留空间关系。 池化层用于降维和减少特征图的大小同时保留主要特征。最常见的池化操作是最大池化它从每个局部区域中选择最大值作为输出减小了特征图的尺寸并提高了计算效率。 全连接层通常位于网络的顶部将卷积层和池化层提取的特征映射到输出类别。全连接层通过学习权重参数将特征映射到每个类别的概率最终实现图像分类。 激活层采用激活函数把卷积层输出结果做非线性映射。在卷积层之后使用以增加网络的表达能力。常见的激活函数包括ReLURectified Linear Unit、Sigmoid和Tanh等。ReLU是最常用的激活函数它能够有效缓解梯度消失问题并加速网络的收敛速度。 Softmax层通常作为网络的最后一层用于将全连接层的输出转换成各个类别的概率分布。通过对这些概率进行比较模型可以确定输入图像最可能属于哪个类别。 3 LeNet5网络基本架构 本实验使用CNN的经典模型LeNet5进行手写数字的识别。 LeNet-5的基本结构包括7层网络结构不含输入层其中包括2个卷积层、2个降采样层池化层、2个全连接层和输出层。 1输入层Input layer 输入层接收大小为28×28 的手写数字图像其中包括灰度值0-255。在本实验中对数据集进行预处理数据进行了标准化以加快训练速度和提高模型的准确性。[28,28,1] 2卷积层C1Convolutional layer C1 卷积层C1包括6个卷积核每个卷积核的大小为5×5步长为1填充为0。因此每个卷积核会产生一个大小为28×28的特征图输出通道数为6。[28,28,6] 3采样层S2Subsampling layer S2 采样层S2采用最大池化max-pooling操作每个窗口的大小为2×2 步长为2。因此每个池化操作会从4个相邻的特征图中选择最大值产生一个大小为14×14的特征图输出通道数为6。[14,14,6] 4卷积层C3Convolutional layer C3 卷积层C3包括16个卷积核每个卷积核的大小为5×5 步长为1填充为0。因此每个卷积核会产生一个大小为10×10的特征图输出通道数为16。[10,10,16] 5采样层S4Subsampling layer S4 采样层S4采用最大池化操作每个窗口的大小为2×2步长为2。因此每个池化操作会从4个相邻的特征图中选择最大值产生一个大小为5×5的特征图输出通道数为16。[5,5,16] 6全连接层C5Fully connected layer C5 C5将每个大小为5×5 的特征图拉成一个长度为400的向量并通过一个带有120个神经元的全连接层进行连接。120是由LeNet-5的设计者根据实验得到的最佳值。[400,]-[120,] 7全连接层F6Fully connected layer F6 全连接层F6将120个神经元连接到84个神经元。[84,] 8输出层Output layer 输出层由10个神经元组成每个神经元对应0-9中的一个数字并输出最终的分类结果。在训练过程中使用交叉熵损失函数计算输出层的误差并通过反向传播算法更新卷积核和全连接层的权重参数。[10,] 4 核心架构的具体实现 # 构建LeNet-5模型 model models.Sequential([layers.Conv2D(6, kernel_size(5, 5), strides(1, 1), activationrelu, input_shape(28, 28, 1), paddingsame),layers.AveragePooling2D(pool_size(2, 2), strides(2, 2), paddingvalid),layers.Conv2D(16, kernel_size(5, 5), strides(1, 1), activationrelu, paddingvalid),layers.AveragePooling2D(pool_size(2, 2), strides(2, 2), paddingvalid),layers.Flatten(),layers.Dense(120, activationrelu),layers.Dense(84, activationrelu),layers.Dense(10, activationsoftmax) ])# 编译模型 model.compile(optimizeradam,losssparse_categorical_crossentropy,metrics[accuracy])# 训练模型 history model.fit(train_images, train_labels, epochs10, batch_size16, validation_data(test_images, test_labels)) 5 网络训练和推理过程及说明 网络训练过程 ·准备数据: 首先需要准备训练数据集和验证数据集。训练数据集通常用来训练模型的参数验证数据集用来评估模型在训练过程中的性能。 ·构建模型: 定义LeNet5模型的架构包括输入层、隐藏层、输出层以及它们之间的连接关系。这里通过深度学习框架TensorFlow来实现。 ·定义损失函数和优化器: 选择交叉熵作为损失函数和Adam作为优化器。 ·训练模型: 将模型与训练数据集进行训练通过反向传播算法不断优化模型参数使得模型能够更好地拟合训练数据。 ·评估模型: 使用验证数据集评估训练得到的模型的性能观察模型在验证集上的表现并根据评估结果进行调参和优化。 网络推理过程 ·准备输入数据: 对于需要进行推理的新数据首先需要进行预处理使其能够输入到训练好的模型中进行推理。 ·加载模型: 从保存的模型参数中加载训练好的模型。 ·模型推理: 将输入数据通过加载的模型进行前向传播得到模型的输出结果。 ·输出结果 6 实验结果对比和分析 6.1 不同神经网络参数对性能的影响 通过对网络模型的不同参数的调整发现以下几个参数都会对模型的性能产生影响学习率、优化算法、激活函数、批处理大小。下面是不同的模型参数对模型准确率的影响 上图虽然数据过于多但是很明显的一点是当使用随机梯度下降sgd最为优化器sigmoid作为激活函数的时候准确率尤其低可以发现模型的参数选择非常重要下面是对不同模型参数的的实验结果比对和研究。 6.1.1 批处理大小 在本次实验中我们探究了不同批量大小对LeNet5模型性能的影响。我们使用了批量大小为16、32和64并记录了每个批量大小下模型在测试集上的准确率。 由于有几个点的准确率过于低使整个折现图不是很直观于是将上述几个准确率过于低的点去掉可以得到以下可视化折线图 我们可以明显地观察到在不同的批量大小下模型的准确率存在差异。具体来说批量大小为64时我们观察到最低的准确率。 一般而言较大的批量大小可能会降低模型的收敛速度而较小的批量大小可能导致模型更快地收敛但容易受到数据噪声的影响。这种差异可能是由于不同批量大小下梯度估计的差异所导致。 考虑到模型的性能在不同批量大小下存在明显变化批量大小的选择在训练深度学习模型时至关重要。然而并不存在一种适用于所有情况的通用最佳批量大小因此在选择批量大小时需要综合考虑模型架构、数据集特性和优化器的选择。 综上所述批量大小作为一个重要的超参数对于模型的性能具有显著影响。在实践中我们建议根据具体情况进行实验和验证以确定最适合的批量大小从而有效地训练深度学习模型。 6.1.2 学习率 学习率learning rate是训练神经网络时一个非常重要的超参数它决定了模型在每次参数更新时的步长大小。学习率的选择对模型的性能有着直接的影响过大或过小的学习率都可能导致训练不稳定或性能下降。 如果学习率设置过大可能导致参数更新过大从而使得模型在参数空间中跳动幅度过大无法收敛到最优解甚至可能导致训练过程中出现震荡或不稳定的情况。 相反如果学习率设置过小模型参数更新的步长会变得很小导致训练过程收敛速度缓慢需要更多的迭代次数才能达到收敛从而增加训练时间。此外学习率过小还容易使得模型陷入局部最优解而难以获得全局最优解。 有6.1.1 可以看出来当batch_size为16时模型性能比较好下面只可视化batch_size为16时的模型性能 可以看出过大或过小的学习率都可能导致训练不稳定或性能下降。在模型训练时应该选择恰当的学习率。 ​​​​​​​6.1.3 优化算法 优化算法在训练神经网络时起着至关重要的作用它决定了模型参数的更新方式和速度。不同的优化算法对模型性能有着直接的影响。 SGD 是最常见的优化算法之一然而在本实验中在对MNIST数据集的分类中SGD表现则没有那么良好。 相比其他两个Adam和RMSprop这两个自适应学习率算法SGD的表现可以说是非常差。 对于 MNIST 这样的任务Adam 和 RMSprop 这类自适应学习率算法通常能够快速收敛并取得较好的性能。因为这些算法能够自动调整学习率适应不同特征的分布和参数的尺度从而更快地收敛到最优解。 综上所述对于 MNIST 数据集的分类任务自适应学习率算法如 Adam 和 RMSprop通常能够在收敛速度和性能上取得良好的平衡。然而对于特定的模型架构和超参数设置不同的优化算法可能会有着不同的表现。 6.1.4 激活函数 不同的激活函数如ReLU、Sigmoid、Tanh等在网络训练中会对梯度传播和稀疏表示等方面产生不同的影响。实验发现就对MNIST数据集的分类ReLU表现更为好。 由上述两个图可以看出SGD随机梯度下降与 Sigmoid 激活函数结合导致准确率极为低。尝试分析了一下原因 1梯度消失问题 Sigmoid 函数具有饱和性其导数在 0 到 1 之间。在网络的反向传播过程中当梯度反向传播到较深层时这种饱和性可能导致梯度消失使得深层网络参数无法有效地更新难以学习到复杂的特征表示。 2非线性表达受限 Sigmoid 函数并不是非常适合作为激活函数因为它只覆盖了一小部分输入范围导致网络的表达能力受到限制。相比之下ReLU 或其变体可以更好地处理非线性关系并且不容易出现梯度消失的问题。 3输出分布偏移 Sigmoid 输出值的范围在 0 到 1 之间但是在实际应用中可能需要更广泛的输出分布。特别是对于 MNIST 数据集中的分类问题期望的输出是 one-hot 编码即输出节点应该尽可能地接近 0 或 1。Sigmoid 输出的值域不是最理想的可能导致网络训练困难。 4SGD 优化器的限制 SGD 是一种简单的优化器可能无法快速收敛到全局最优解。在复杂的模型结构中SGD 可能会受到局部最小值或者鞍点的影响。 6.2 实验结果的分析 通过上述调试参数最终使用如下参数进行模型的训练和测试,得到实验结果如下 activations [ relu] learning_rates [0.001] optimizers [ adam] batch_sizes [16] epochs 10 可视化 可以看出模型预测出错的图片人眼也很难识别可见模型的训练还是比较成功的。 7. 各种神经网络方法的优缺点 7.1多层感知机MLP 优点 ①简单易用适用于一些简单的分类和回归任务。 ②可以进行非线性映射对一些非线性问题的建模能力较强。 缺点 ①处理图像、语音和自然语言处理等复杂任务的能力有限。 ②受限于全连接结构参数较多容易过拟合。 7.2卷积神经网络CNN 优点 ①在图像处理领域表现出色能够自动提取局部特征。 ②参数共享和池化操作减少了模型的参数数量降低了过拟合风险。 缺点 ①对位置平移和尺度变化敏感需要大量数据进行训练以获得良好的泛化性能。 ②不擅长处理序列数据如文本和时间序列数据。 7.3 循环神经网络RNN 优点 ①适用于处理序列数据能够捕捉时间上的依赖关系。 ②可以处理不定长的输入序列适用于自然语言处理等任务。 缺点 ①难以捕捉长距离的依赖关系存在梯度消失和梯度爆炸问题。 ②计算效率较低难以并行化处理。 7.4 长短期记忆网络LSTM和门控循环单元GRU 优点 ①解决了传统RNN难以捕捉长距离依赖关系的问题。 ②具有记忆单元和门控机制能够更好地处理长序列任务。 缺点 ①参数较多需要更多的数据来训练。 ②计算成本较高对硬件要求较高。 8.总结和讨论 在MNIST手写字符识别任务中CNN例如LeNet-5模型表现出了较好的性能能够有效地提取图像特征获得较高的准确率。 参数调优对模型性能影响显著如学习率、批处理大小、优化算法和激活函数等。具体调整这些参数能够显著地改变模型的收敛速度和准确率。 不同的优化算法和激活函数对模型性能有重要影响。自适应学习率算法如Adam、RMSprop和ReLU激活函数通常能在训练效率和性能上取得较好的平衡。 手写字符识别问题在现代深度学习中仍然是一个重要的研究领域不同的模型和方法在实际应用中各有优劣。 还有一些对于手写字符识别问题未来的看法和建议 探索更深层次、更复杂的网络结构例如ResNet、Inception等在保持计算效率的同时提高模型性能。 应用更多的数据增强技术和预处理方法以增加数据集的多样性提高模型的鲁棒性和泛化能力。 结合迁移学习的方法利用预训练的模型在手写字符识别问题上进行fine-tuning。同时尝试模型融合等集成学习方法提高模型性能。 随着技术的发展探索如注意力机制、图神经网络等新技术在手写字符识别中的应用以提高模型的表达能力。 总体而言手写字符识别问题仍有许多待解决的挑战需要进一步的研究和探索新的方法以应对不同场景下的需求并不断提升模型性能。 9.附录 基于LeNet5模型进行MNIST手写数字集的分类实验完整代码 import tensorflow as tffrom tensorflow.keras import layers, models, datasetsimport matplotlib.pyplot as plt# 加载MNIST数据集(train_images, train_labels), (test_images, test_labels) datasets.mnist.load_data()train_images train_images.reshape((60000, 28, 28, 1)).astype(float32) / 255test_images test_images.reshape((10000, 28, 28, 1)).astype(float32) / 255# 构建LeNet-5模型model models.Sequential([layers.Conv2D(6, kernel_size(5, 5), strides(1, 1), activationrelu, input_shape(28, 28, 1), paddingsame),layers.AveragePooling2D(pool_size(2, 2), strides(2, 2), paddingvalid),layers.Conv2D(16, kernel_size(5, 5), strides(1, 1), activationrelu, paddingvalid),layers.AveragePooling2D(pool_size(2, 2), strides(2, 2), paddingvalid),layers.Flatten(),layers.Dense(120, activationrelu),layers.Dense(84, activationrelu),layers.Dense(10, activationsoftmax)])# 编译模型model.compile(optimizeradam,losssparse_categorical_crossentropy,metrics[accuracy])# 训练模型history model.fit(train_images, train_labels, epochs10, batch_size16, validation_data(test_images, test_labels))# 可视化训练过程plt.plot(history.history[accuracy], labelaccuracy)plt.plot(history.history[val_accuracy], label val_accuracy)plt.xlabel(Epoch)plt.ylabel(Accuracy)plt.ylim([0, 1])plt.legend(loclower right)plt.show()# 评估模型test_loss, test_acc model.evaluate(test_images, test_labels)print(Test accuracy:, test_acc)import numpy as np# 使用训练好的模型对测试集进行预测predictions model.predict(test_images)predicted_labels np.argmax(predictions, axis1)# 找出预测正确和错误的样本correct_indices np.where(predicted_labels test_labels)[0]incorrect_indices np.where(predicted_labels ! test_labels)[0]# 输出部分预测错误的样本plt.figure(figsize(10, 10))for i, incorrect_idx in enumerate(incorrect_indices[:25]):plt.subplot(5, 5, i 1)plt.imshow(test_images[incorrect_idx].reshape(28, 28), cmapgray)plt.title(fPredicted: {predicted_labels[incorrect_idx]}, True: {test_labels[incorrect_idx]})plt.axis(off)plt.tight_layout()plt.show()# 输出部分预测正确的样本plt.figure(figsize(10, 10))for i, correct_idx in enumerate(correct_indices[:25]):plt.subplot(5, 5, i 1)plt.imshow(test_images[correct_idx].reshape(28, 28), cmapgray)plt.title(fPredicted: {predicted_labels[correct_idx]}, True: {test_labels[correct_idx]})plt.axis(off)plt.tight_layout()plt.show()# 参数配置实验activations [tanh, relu, sigmoid]learning_rates [0.01, 0.001, 0.0001]optimizers [sgd, adam, rmsprop]batch_sizes [16, 32, 64]epochs 3  results []for act in activations:for lr in learning_rates:for opt in optimizers:for batch_size in batch_sizes:model build_lenet5_model(activationact)model.compile(optimizeropt, losssparse_categorical_crossentropy, metrics[accuracy])history model.fit(train_images, train_labels, batch_sizebatch_size, epochsepochs, validation_data(test_images, test_labels))val_accuracy history.history[val_accuracy][-1]  # 获取最终验证准确率results.append((act, lr, opt, batch_size, val_accuracy))import csv# 将结果保存到CSV文件filename experiment_results.csvwith open(filename, modew, newline) as file:writer csv.writer(file)writer.writerow([Activation, Learning Rate, Optimizer, Batch Size, Validation Accuracy])for result in results:# 提取结果并进行可视化labels [f{act} LR:{lr} Opt:{opt} Batch:{batch} for act, lr, opt, batch, _ in results]accuracy_values [accuracy for _, _, _, _, accuracy in results]# 创建条形图plt.figure(figsize(15, 8))plt.bar(labels, accuracy_values, colorskyblue)# 添加标题和标签plt.title(Validation Accuracy for Different Hyperparameter Combinations and Batch Sizes)plt.xlabel(Hyperparameters and Batch Sizes)plt.ylabel(Validation Accuracy)plt.xticks(rotation45, haright)plt.tight_layout()plt.show()import csvimport matplotlib.pyplot as plt# 读取CSV文件数据filename experiment_results.csvwith open(filename, moder) as file:reader csv.reader(file)header next(reader)  # 读取标题行data [row for row in reader]  # 读取数据行# 提取数据batch_sizes set(row[3] for row in data)activation_types set(row[0] for row in data)learning_rates set(row[1] for row in data)optimizers set(row[2] for row in data)# 准备数据并过滤性能较差的数据点batch_size_data {}threshold 0.5  # 设定阈值for batch_size in batch_sizes:accuracies [float(row[4]) for row in data if row[3] batch_size and float(row[4]) threshold]batch_size_data[batch_size] accuracies# 绘制折线图plt.figure(figsize(10, 6))for batch_size, accuracies in batch_size_data.items():# 根据batch_size筛选数据行filtered_data [row for row in data if row[3] batch_size and float(row[4]) threshold]# 获取当前参数的值作为标签labels [f{row[0]}, {row[1]}, {row[2]} for row in filtered_data]plt.plot(labels, accuracies, markero, labelfBatch Size: {batch_size})# 设置图表属性plt.title(Model Performance by Different Batch Sizes)plt.xlabel(Model Parameters)plt.ylabel(Validation Accuracy)plt.xticks(rotation90)  # 旋转X轴标签以防止重叠plt.legend()# 显示图表plt.tight_layout()plt.show() Ps省略了一些重复的代码 文档完成于2023/12/14 编辑于2023/12/30
http://www.laogonggong.com/news/131953.html

相关文章:

  • 吴江区城乡建设局网站nginx wordpress 伪静态
  • 网站pv统计方法网站建设中山
  • 孝南区城乡建设局网站一键关键词优化
  • 企业网站源码 html整套vi设计包含哪些
  • 网站域名背景网站内容上传要求
  • 电子商务类网站有哪些做网站用什么好
  • 网站外包要注意什么react用于网站开发
  • 租车网站建设系统的设计企业网站源码是什么
  • 深圳建站模板购买创意广告视频网站
  • 丽江市住房建设局网站如何让百度快速收录新网站
  • 南阳响应式网站制作长春哪里做网站
  • 网站建设商标属于哪个类别咋做抽奖网站
  • 网站怎么认证南通网络科技的公司网站
  • 广州市用工备案在哪个网站做做网站只用前端知识可以吗
  • 爱 做 网站吗湛江论坛网
  • 网站建设的具体流程图一个好网站
  • 鲜花网站建设结构布局建设一个网站的流程
  • 热 综合-网站正在建设中wordpress 新闻资讯
  • 如何做网站链接网站制作模板代码html免费
  • 网页设计和网站建设实战大全网站设计的主要内容
  • 网站建设 麦肯趋势比特币wordpress插件
  • 做企业网站用哪个软件新版网站上线
  • 深圳高端网站建设创新wordpress 模板 导航
  • 手机网站推广方案重庆企业网站推广费用
  • 响应式网站的意义凉山西昌网站建设
  • 完整网站开发需要多久有模板的视频制作app
  • 兰州商城网站建自己做网站的费用
  • 石家庄 科技 公司 网站建设网站建设方面的知识
  • 公司网站后台怎么上传图片dw旅游网站怎么做
  • 深圳哪里可以做网站网站访问统计怎么做