当前位置: 首页 > news >正文

厦门网站推广的目标网上国网推广经验

厦门网站推广的目标,网上国网推广经验,个人网页首页,一键生成论文的网站摩西西珀博士 一、说明 我最近发现自己需要一种方法将图像编码到潜在嵌入中#xff0c;调整嵌入#xff0c;然后生成新图像。有一些强大的方法可以创建嵌入或从嵌入生成。如果你想同时做到这两点#xff0c;一种自然且相当简单的方法是使用变分自动编码器。 这样的深度网络不… 摩西·西珀博士 一、说明         我最近发现自己需要一种方法将图像编码到潜在嵌入中调整嵌入然后生成新图像。有一些强大的方法可以创建嵌入或从嵌入生成。如果你想同时做到这两点一种自然且相当简单的方法是使用变分自动编码器。         这样的深度网络不仅可以进行编码和解码而且相当简单我可以在以后的研究中使用它而不必过多担心编码解码阶段的各种隐藏复杂性。我也更喜欢对软件内部有尽可能多的控制。         因此考虑到所有这些规范我从 GitHub 收集了一些零碎的东西施展了一些我自己的魔法最终得到了一个漂亮、简单的变分自动编码器。我将在下面描述主要部分完整的包可在以下位置找到 vae-torch-celeba,PyTorch 中 CelebA 数据集的变分自动编码器,下载vae-torch-celeba的源码_GitHub_帮酷 PyTorch 中用于 CelebA 数据集的变分自动编码器 - GitHub - moshesipper/vae-torch-celeba变分... 它相当小并且完全独立——这就是我的意图 二、自动编码器         为了使本文简短易懂我将避免提供变分自动编码器的冗长概述。此外您还可以在 Medium 上找到有关基础知识的优秀文章。我只提供三张快速图片。         这是基本自动编码器的样子 来源 https: //commons.wikimedia.org/wiki/File :Autoencoder_schema.png         简而言之网络将输入数据压缩为潜在向量也称为嵌入然后将其解压缩回来。这两个阶段称为编码和解码。         变分自动编码器VAE看起来非常相似除了中间的嵌入部分。对于每个输入VAE 的编码器输出潜在空间中预定义分布的参数而不是潜在空间中的向量 来源https ://commons.wikimedia.org/wiki/File:Reparameterized_Variational_Autoencoder.png         最后一张图片如果我们处理的是图像输入我们需要一个卷积VAE如下所示 来源https://github.com/arthurmeyer/Saliency_Detection_Convolutional_Autoencoder         注意#1观察编码器部分如何在每一层中添加越来越多的滤波器图像变得越来越小解码器则相反。         注意#2注意符号。如果只有一个通道则术语“过滤器”和“内核”基本相同。对于多个通道每个过滤器都是一组内核。查看这篇很棒的 Medium 文章“直观地理解深度学习的卷积”。 三、CelebA数据集 我将使用的数据集是 CelebA其中包含 202,599 张名人面孔图像。 CelebA 数据集 CelebFaces Attributes Dataset (CelebA) 是一个大规模人脸属性数据集包含超过 20 万张名人图像…… 可以通过以下方式访问它torchvision: from torchvision.datasets import CelebAtrain_dataset CelebA(path, splittrain) test_dataset CelebA(path, splitvalid) # or test 四、VAE类         我的 VAE 基于此PyTorch 示例和存储库的普通 VAE模型将我使用的普通 VAE 替换为中的任何其他模型PyTorch-VAE应该不会太难。PyTorch-VAE         该文件vae.py包含VAE类以及图像大小的定义、两个潜在向量的维度均值和方差以及数据集的路径 CELEB_PATH ./data/ IMAGE_SIZE 150 LATENT_DIM 128 image_dim 3 * IMAGE_SIZE * IMAGE_SIZE 在课堂上VAE我使用了以下隐藏过滤器维度 hidden_dims [32, 64, 128, 256, 512] 编码器看起来像这样 in_channels 3 modules [] for h_dim in hidden_dims:modules.append(nn.Sequential(nn.Conv2d(in_channels, out_channelsh_dim,kernel_size3, stride2, padding1),nn.BatchNorm2d(h_dim),nn.LeakyReLU()))in_channels h_dim self.encoder nn.Sequential(*modules) 然后是潜在向量 self.fc_mu nn.Linear(hidden_dims[-1] * self.size * self.size, LATENT_DIM) self.fc_var nn.Linear(hidden_dims[-1] * self.size * self.size, LATENT_DIM)         最后我们用解码器“倒退” hidden_dims.reverse()for i in range(len(hidden_dims) - 1):modules.append(nn.Sequential(nn.ConvTranspose2d(hidden_dims[i],hidden_dims[i 1],kernel_size3,stride2,padding1,output_padding1),nn.BatchNorm2d(hidden_dims[i 1]),nn.LeakyReLU()))self.decoder nn.Sequential(*modules) 这就是它的要点——还有一些零碎的内容vae.py可以完成这VAE门课。 五、训练         该文件trainvae.py包含训练我们刚刚编码的 VAE 的代码。老实说没什么花哨的......有 3 个主要函数train随着训练的进行它也输出损失值test它还构建一个重建图像的小样本和loss_function。训练和测试相当普通损失函数是标准 VAE带有重建组件 (MSE) 和 KL 散度组件。         epoch 上的主循环执行 4 个操作1) train、2) test、3) 生成随机潜在向量并调用decode以输出相应的输出图像以及 4) 将 epoch 的模型保存到文件中pth。 以下是示例运行的输出。通过 20 个训练周期您最终会得到 20 个重建图像文件、20 个潜在采样文件和 20 个 python 模型文件         这里reconstruction_20.png顶行显示 8 张原始图片底行显示经过训练的 VAE 的相应重建。         在 epoch 20 时从模型重建输出图像。         这里的sample_20.png显示了从随机潜在向量生成的 64 张图像 只是为了好玩我添加了一小段代码 — genpics.py— 从数据集中挑选一个随机图像并生成 7 个重建。以下是一些示例最左边的图像是原始图像 最后我再次放置 GitHub 链接。享受
http://www.laogonggong.com/news/126739.html

相关文章:

  • 西安网站建设网站建设网站建设 php 企业网站
  • 网站正在建设中色网站模板下载湖南岚鸿网站
  • 东莞个人网站推广建设嘉上营销
  • 银川兴庆建设局网站北京博洛尼装饰公司
  • 做网站中山外贸网站怎么做
  • 基于html5的网站开发网站开发公司哪里好
  • 小鼠标网站建设注册一个公司需要几个人
  • 唐山有制作网站的没网络营销网站建设诊断报告
  • 网站建设的详细步骤app开发公司掌握我的源代码吗
  • 网站目录做二级域名网加速器
  • 张店网站开发招聘销售网站怎么做的
  • 做网站付多少定金深圳福田专业网站推广
  • 凡科建站官网地址网站建设 锋云科技
  • 笨笨网站建设专家随州网站建设学校
  • 网站建设服务费是否无形资产美工详情页设计一般多少钱
  • 泉州专门做网站怎么制作营销网站
  • 网站建设哪家好建议兴田德润北京seo优化方案
  • 选手机网站wordpress图片主题演示
  • 新手怎样学校做网站芍药居做网站公司
  • 电商网站建设包括哪些内容做一手房有哪些网站比较好啊
  • 个人品牌网站设计泰安网站建设焦点网络
  • 广州微信网站建设价格人人站cms
  • 网站开发辛苦吗万网官方网站
  • 网站文章排版工具厦门建设与管理局官网
  • googleseo排名公司曲靖seo
  • 网站优化有哪些方法久久建筑网农网改造工程钻孔机开挖基坑专项施工方案
  • 北京网站制作17页ps软件免费下载安装
  • wordpress回收站在哪如何用本机电脑做网站服务器
  • 昆山网站建设培训学校厂房出租做推广什么网站好
  • 郑州建网站哪个公司好安卓市场2022最新版下载