2026/2/20 10:36:22
网站建设
项目流程
vs2010网站开发 调试 打不开页面 浏览器错误,东莞网站设计制作网站,手机商城设计,快速做课件的网站文章目录0 前言1 什么是图像超分辨率重建2 应用场景3 实现方法4 SRResNet算法原理5 SRCNN设计思路6 代码实现6.1 代码结构组织6.2 train_srresnet6.3 训练效果0 前言
#x1f525;这两年开始毕业设计和毕业答辩的要求和难度不断提升#xff0c;传统的毕设题目缺少创新和亮点…文章目录0 前言1 什么是图像超分辨率重建2 应用场景3 实现方法4 SRResNet算法原理5 SRCNN设计思路6 代码实现6.1 代码结构组织6.2 train_srresnet6.3 训练效果0 前言这两年开始毕业设计和毕业答辩的要求和难度不断提升传统的毕设题目缺少创新和亮点往往达不到毕业答辩的要求这两年不断有学弟学妹告诉学长自己做的项目系统达不到老师的要求。并且很难找到完整的毕设参考学习资料。为了大家能够顺利以及最少的精力通过毕设学长分享优质毕业设计项目提供大家参考学习今天要分享的是基于深度学习的图像超分辨率重建算法研究与实现学长这里给一个题目综合评分(每项满分5分)难度系数4分工作量4分创新点3分选题指导, 项目分享见文末1 什么是图像超分辨率重建图像的超分辨率重建技术指的是将给定的低分辨率图像通过特定的算法恢复成相应的高分辨率图像。具体来说图像超分辨率重建技术指的是利用数字图像处理、计算机视觉等领域的相关知识借由特定的算法和处理流程从给定的低分辨率图像中重建出高分辨率图像的过程。其旨在克服或补偿由于图像采集系统或采集环境本身的限制导致的成像图像模糊、质量低下、感兴趣区域不显著等问题。简单来理解超分辨率重建就是将小尺寸图像变为大尺寸图像使图像更加“清晰”。具体效果如下图所示2 应用场景图像超分辨率重建技术在多个领域都有着广泛的应用范围和研究意义。主要包括1 图像压缩领域在视频会议等实时性要求较高的场合可以在传输前预先对图片进行压缩等待传输完毕再由接收端解码后通过超分辨率重建技术复原出原始图像序列极大减少存储所需的空间及传输所需的带宽。2 医学成像领域对医学图像进行超分辨率重建可以在不增加高分辨率成像技术成本的基础上降低对成像环境的要求通过复原出的清晰医学影像实现对病变细胞的精准探测有助于医生对患者病情做出更好的诊断。3 遥感成像领域高分辨率遥感卫星的研制具有耗时长、价格高、流程复杂等特点由此研究者将图像超分辨率重建技术引入了该领域试图解决高分辨率的遥感成像难以获取这一挑战使得能够在不改变探测系统本身的前提下提高观测图像的分辨率。4 公共安防领域公共场合的监控设备采集到的视频往往受到天气、距离等因素的影响存在图像模糊、分辨率低等问题。通过对采集到的视频进行超分辨率重建可以为办案人员恢复出车牌号码、清晰人脸等重要信息为案件侦破提供必要线索。5 视频感知领域通过图像超分辨率重建技术可以起到增强视频画质、改善视频的质量提升用户的视觉体验的作用。3 实现方法首先介绍图像超分辨率重建技术图像超分辨率重建技术分为两种一种是从多张低分辨率图像合成一张高分辨率图像另外一种是从单张低分辨率图像获取高分辨率图像在本专栏中我们使用单幅图像超分辨率重建技术(SISR)。在这些方法中可以分为三类基于插值基于重建基于学习。基于插值的方法实现简单已经广泛应用但是这些线性的模型限制住了它们恢复高频能力的细节。基于稀疏表示的技术[1]通过使用先验知识增强了线性模型的能力。这类技术假设任意的自然图像可以被字典的元素稀疏表示这种字典可以形成一个数据库且从数据库中学习到低分辨率图像到高分辨率图像的映射但是这类方法计算复杂需要大量计算资源。基于CNN(卷积神经网络)的模型SRCNN[2]首先将CNN引入SISR中它仅仅使用三层网络就取得了先进的结果。随后各种基于深度学习的模型进入SISR领域大致分为以下两个大的方向。一种是追求细节的恢复以PSNR,SSIM等评价标准的算法其中以SRCNN模型为代表。另外一种以降低感知损失为目标不注重细节看重大局观以SRGAN[3]为代表的一系列算法。两种不同方向的算法应用的领域也不相同。在医学图像领域医生需要图像的细节以致于做出精确的判断而不是追求图像整体的清晰因此本专栏中将研究追求细节恢复的算法以及在医学上的应用。追求细节恢复的算法也分为两个流派一是使用插值作为预处理的算法二是不使用插值将上采样过程融入网络中的算法。4 SRResNet算法原理SRCNN的网络结构图如下三层的作用在进入网络之前会有将input图像用双三次插值放大至目标尺寸的预处理。LR 特征提取Patch extraction and representation这个阶段主要是对LR进行特征提取并将其特征表征为一些feature maps特征的非线性映射Non-linear mapping这个阶段主要是将第一阶段提取的特征映射至HR所需的feature mapsHR重建Reconstruction这个阶段是将第二阶段映射后的特征恢复为HR图像。网络结构细节LR特征提取可表征为“卷积层cf1f1卷积核RELUc是通道数f1是卷积核的大小。非线性映射可表征为“全连接层RELU”而全连接层又可表征为卷积核为1x1的卷积层因此本层最终形式为“卷积层n111卷积核RELU;n1是第一层卷积核的个数。HR重建可直接表征为“卷积层n2f3f3”n2是第二层卷积核的个数。5 SRCNN设计思路这个思路是从稀疏编码得来的并把上述过程分别表述为Patch extraction, Non-linear mapping, Reconstruction。Patch extraction: 提取图像Patch进行卷积提取特征类似于稀疏编码中的将图像patch映射到低分辨率字典中。基于样例的算法目的是找到一组可以表达之前预处理后所得到图像块的一组“基”这些基是沿着不同方向的边缘稀疏系数就是分配给各个基的权重。作者认为这部分可以转化为用一定数量的滤波器卷积核来代替。Non-linear mapping: 将低分辨率的特征映射为高分辨率特征类似于字典学习中的找到图像patch对应的高分辨字典。基于样例的算法将第一步得到的表达图像块的高维向量映射到另外一个高维向量中通过这个高维向量表达高分辨率图像块用于最后的重建。作者认为这一步骤可以使用1*1的卷积来实现向量维数的变换。Reconstruction根据高分辨率特征进行图像重建。类似于字典学习中的根据高分辨率字典进行图像重建。基于样例的算法将最后得到的高分辨率图像块进行聚合重合的位置取平均形成最后的高分辨率图像。作者认为这一部分可以看成是一种线性运算可以构造一个线性函数不加激活函数来实现。从实际操作上来看整个超分重建分为两步图像放大和修复。所谓放大就是采用某种方式SRCNN采用了插值上采样将图像放大到指定倍数然后再根据图像修复原理将放大后的图像映射为目标图像。超分辨率重建不仅能够放大图像尺寸在某种意义上具备了图像修复的作用可以在一定程度上削弱图像中的噪声、模糊等。因此超分辨率重建的很多算法也被学者迁移到图像修复领域中完成一些诸如jpep压缩去燥、去模糊等任务。6 代码实现6.1 代码结构组织项目根目录下有8个.py文件和2个文件夹下面对各个文件和文件夹进行简单说明。create_data_lists.py生成数据列表检查数据集中的图像文件尺寸并将符合的图像文件名写入JSON文件列表供后续Pytorch调用datasets.py用于构建数据集加载器主要沿用Pytorch标准数据加载器格式进行封装models.py模型结构文件存储各个模型的结构定义utils.py工具函数文件所有项目中涉及到的一些自定义函数均放置在该文件中train_srresnet.py用于训练SRResNet算法train_srgan.py用于训练SRGAN算法eval.py用于模型评估主要以计算测试集的PSNR和SSIM为主test.py用于单张样本测试运用训练好的模型为单张图像进行超分重建data用于存放训练和测试数据集以及文件列表results用于存放运行结果包括训练好的模型以及单张样本测试结果整个代码运行顺序如下运行create_data_lists.py文件用于为数据集生成文件列表运行train_srresnet.py进行SRResNet算法训练训练结束后在results文件夹中会生成checkpoint_srresnet.pth模型文件运行eval.py文件对测试集进行评估计算每个测试集的平均PSNR、SSIM值运行test.py文件对results文件夹下名为test.jpg的图像进行超分还原还原结果存储在results文件夹下面运行train_srgan.py文件进行SRGAN算法训练训练结束后在results文件夹中会生成checkpoint_srgan.pth模型文件修改并运行eval.py文件对测试集进行评估计算每个测试集的平均PSNR、SSIM值修改并运行test.py文件对results文件夹下名为test.jpg的图像进行超分还原还原结果存储在results文件夹下面6.2 train_srresnet代码过多仅展示关键代码需要源码的可以call学长importtorch.backends.cudnnascudnnimporttorchfromtorchimportnnfromtorchvision.utilsimportmake_gridfromtorch.utils.tensorboardimportSummaryWriterfrommodelsimportSRResNetfromdatasetsimportSRDatasetfromutilsimport*# 数据集参数data_folder./data/# 数据存放路径crop_size96# 高分辨率图像裁剪尺寸scaling_factor4# 放大比例# 模型参数large_kernel_size9# 第一层卷积和最后一层卷积的核大小small_kernel_size3# 中间层卷积的核大小n_channels64# 中间层通道数n_blocks16# 残差模块数量# 学习参数checkpointNone# 预训练模型路径如果不存在则为Nonebatch_size400# 批大小start_epoch1# 轮数起始位置epochs130# 迭代轮数workers4# 工作线程数lr1e-4# 学习率# 设备参数devicetorch.device(cudaiftorch.cuda.is_available()elsecpu)ngpu2# 用来运行的gpu数量cudnn.benchmarkTrue# 对卷积进行加速writerSummaryWriter()# 实时监控 使用命令 tensorboard --logdir runs 进行查看defmain(): 训练. globalcheckpoint,start_epoch,writer# 初始化modelSRResNet(large_kernel_sizelarge_kernel_size,small_kernel_sizesmall_kernel_size,n_channelsn_channels,n_blocksn_blocks,scaling_factorscaling_factor)# 初始化优化器optimizertorch.optim.Adam(paramsfilter(lambdap:p.requires_grad,model.parameters()),lrlr)# 迁移至默认设备进行训练modelmodel.to(device)criterionnn.MSELoss().to(device)# 加载预训练模型ifcheckpointisnotNone:checkpointtorch.load(checkpoint)start_epochcheckpoint[epoch]1model.load_state_dict(checkpoint[model])optimizer.load_state_dict(checkpoint[optimizer])iftorch.cuda.is_available()andngpu1:modelnn.DataParallel(model,device_idslist(range(ngpu)))# 定制化的dataloaderstrain_datasetSRDataset(data_folder,splittrain,crop_sizecrop_size,scaling_factorscaling_factor,lr_img_typeimagenet-norm,hr_img_type[-1, 1])train_loadertorch.utils.data.DataLoader(train_dataset,batch_sizebatch_size,shuffleTrue,num_workersworkers,pin_memoryTrue)# 开始逐轮训练forepochinrange(start_epoch,epochs1):model.train()# 训练模式允许使用批样本归一化loss_epochAverageMeter()# 统计损失函数n_iterlen(train_loader)# 按批处理fori,(lr_imgs,hr_imgs)inenumerate(train_loader):# 数据移至默认设备进行训练lr_imgslr_imgs.to(device)# (batch_size (N), 3, 24, 24), imagenet-normed 格式hr_imgshr_imgs.to(device)# (batch_size (N), 3, 96, 96), [-1, 1]格式# 前向传播sr_imgsmodel(lr_imgs)# 计算损失losscriterion(sr_imgs,hr_imgs)# 后向传播optimizer.zero_grad()loss.backward()# 更新模型optimizer.step()# 记录损失值loss_epoch.update(loss.item(),lr_imgs.size(0))# 监控图像变化ifi(n_iter-2):writer.add_image(SRResNet/epoch_str(epoch)_1,make_grid(lr_imgs[:4,:3,:,:].cpu(),nrow4,normalizeTrue),epoch)writer.add_image(SRResNet/epoch_str(epoch)_2,make_grid(sr_imgs[:4,:3,:,:].cpu(),nrow4,normalizeTrue),epoch)writer.add_image(SRResNet/epoch_str(epoch)_3,make_grid(hr_imgs[:4,:3,:,:].cpu(),nrow4,normalizeTrue),epoch)# 打印结果print(第 str(i) 个batch训练结束)# 手动释放内存dellr_imgs,hr_imgs,sr_imgs# 监控损失值变化writer.add_scalar(SRResNet/MSE_Loss,loss_epoch.val,epoch)# 保存预训练模型torch.save({epoch:epoch,model:model.module.state_dict(),optimizer:optimizer.state_dict()},results/checkpoint_srresnet.pth)# 训练结束关闭监控writer.close()if__name____main__:main()6.3 训练效果训练共用时15小时19分6秒没有用显卡训练完成后保存的模型共17.8M。下图展示了训练过程中的损失函数变化。可以看到随着训练的进行损失函数逐渐开始收敛在结束的时候基本处在收敛平稳点。倍缩放比率下不同超分辨率方法的结果比对效果 项目分享:大家可自取用于参考学习获取方式见文末!