当前位置: 首页 > wzjs >正文

网站开发需要后台吗河北seo诊断培训

网站开发需要后台吗,河北seo诊断培训,做网站的一个专题,网站规划有哪些内容1、三大容器 nn.Sequential:按顺序包装多个网络层nn.ModuleList:像 Python 中的 list 一样包装多个网络层nn.ModuleDict:像 Python 中的 dict 一样包装多个网络层 1.1 Sequential 1.1.1 概念 nn.Sequential 是 nn.Module 的容器&#xff0…

1、三大容器

  • nn.Sequential:按顺序包装多个网络层
  • nn.ModuleList:像 Python 中的 list 一样包装多个网络层
  • nn.ModuleDict:像 Python 中的 dict 一样包装多个网络层

1.1 Sequential

在这里插入图片描述

1.1.1 概念

nn.Sequentialnn.Module 的容器,用于按顺序包装一组网络层

1.1.2 特征

  • 顺序性:各网络层之间严格按顺序构建
  • 自带 forward():自带的 forward 里,通过 for 循环依次执行向前传播运算

1.3 代码框架

  • LeNetSequential()
class LeNetSequential(nn.Module):def __init__(self, classes):super(LeNetSequential, self).__init__()self.features = nn.Sequential(nn.Conv2d(3, 6, 5),nn.ReLU(),nn.MaxPool2d(kernel_size=2, stride=2),nn.Conv2d(6, 16, 5),nn.ReLU(),nn.MaxPool2d(kernel_size=2, stride=2),)self.classifier = nn.Sequential(nn.Linear(16*5*5, 120),nn.ReLU(),nn.Linear(120, 84),nn.ReLU(),nn.Linear(84, classes),)def forward(self, x):x = self.features(x)x = x.view(x.size()[0], -1)x = self.classifier(x)return x
  • LeNetSequentialOrderDict()
class LeNetSequentialOrderDict(nn.Module):def __init__(self, classes):super(LeNetSequentialOrderDict, self).__init__()self.features = nn.Sequential(OrderedDict({'conv1': nn.Conv2d(3, 6, 5),'relu1': nn.ReLU(inplace=True),'pool1': nn.MaxPool2d(kernel_size=2, stride=2),'conv2': nn.Conv2d(6, 16, 5),'relu2': nn.ReLU(inplace=True),'pool2': nn.MaxPool2d(kernel_size=2, stride=2),}))self.classifier = nn.Sequential(OrderedDict({'fc1': nn.Linear(16*5*5, 120),'relu3': nn.ReLU(),'fc2': nn.Linear(120, 84),'relu4': nn.ReLU(inplace=True),'fc3': nn.Linear(84, classes),}))def forward(self, x):x = self.features(x)x = x.view(x.size()[0], -1)x = self.classifier(x)return x

1.2 ModuleList

1.2.1 概念

nn.ModuleListnn.module 的容器,用于包装一组网络层,以索引方式调用网络层

1.2.2 主要方法

  • append():在 ModuleList 后面添加网络层
  • extend():拼接两个 ModuleList
  • insert():指定在 ModuleList 中某个位置插入网络层

1.2.3 代码框架

class ModuleList(nn.Module):def __init__(self):super(ModuleList, self).__init__()self.linears = nn.ModuleList([nn.Linear(10, 10) for i in range(20)])def forward(self, x):for i, linear in enumerate(self.linears):x = linear(x)return x

1.3 ModuleDict

1.3.1 概念

nn.ModuleDictnn.module 的容器,用于包装一组网络层,以索引方式调用网络层

1.3.2 主要方法

  • clear():清空 ModuleDict
  • items():返回可迭代的键值对(key-value pairs)
  • keys():返回字典的键(key)
  • values():返回字典的值(value)
  • pop():返回一组键值对并从字典中删除

1.3.3 代码框架

class ModuleDict(nn.Module):def __init__(self):super(ModuleDict, self).__init__()self.choices = nn.ModuleDict({'conv': nn.Conv2d(10, 10, 3),'pool': nn.MaxPool2d(3)})self.activations = nn.ModuleDict({'relu': nn.ReLU(),'prelu': nn.PReLU()})def forward(self, x, choice, act):x = self.choices[choice](x)x = self.activations[act](x)return x

1.4 小结

  • nn.Sequential顺序性,各网络层之间严格按照顺序执行,常用于 block 构建
  • nn.ModuleList迭代性,常用于大量重复网络构建,通过 for 循环实现重复构建
  • nn.ModuleDict字典性,冲用于可选择的网络层构建

2、AlexNet

在这里插入图片描述

2.1 背景介绍

2021年 AlextNet 以高出第二名10多个百分点的准确率获得 ImageNet 分类任务冠军,开创了卷积神经网络的新时代

2.2 特征

  1. 采用 ReLU 激活函数:替换了 sigmoid 函数,减轻梯度消失的问题
  2. 采用 LRN(Local Response Normalization):对数据进行归一化,抑制其对输出的影响,减轻梯度消失的问题
  3. 采用 Dropout:提高全连接层的鲁棒性,增加网络的泛化能力
  4. 采用 Data Augmentation:TenCrop 策略,色彩修改

2.3 代码框架

class AlexNet(nn.Module):def __init__(self, num_classes: int = 1000, dropout: float = 0.5) -> None:super().__init__()_log_api_usage_once(self)self.features = nn.Sequential(nn.Conv2d(3, 64, kernel_size=11, stride=4, padding=2),nn.ReLU(inplace=True),nn.MaxPool2d(kernel_size=3, stride=2),nn.Conv2d(64, 192, kernel_size=5, padding=2),nn.ReLU(inplace=True),nn.MaxPool2d(kernel_size=3, stride=2),nn.Conv2d(192, 384, kernel_size=3, padding=1),nn.ReLU(inplace=True),nn.Conv2d(384, 256, kernel_size=3, padding=1),nn.ReLU(inplace=True),nn.Conv2d(256, 256, kernel_size=3, padding=1),nn.ReLU(inplace=True),nn.MaxPool2d(kernel_size=3, stride=2),)self.avgpool = nn.AdaptiveAvgPool2d((6, 6))self.classifier = nn.Sequential(nn.Dropout(p=dropout),nn.Linear(256 * 6 * 6, 4096),nn.ReLU(inplace=True),nn.Dropout(p=dropout),nn.Linear(4096, 4096),nn.ReLU(inplace=True),nn.Linear(4096, num_classes),)def forward(self, x: torch.Tensor) -> torch.Tensor:x = self.features(x)x = self.avgpool(x)x = torch.flatten(x, 1)x = self.classifier(x)return x

微语录:熬过无人问津的日子,才能拥抱诗和远方。

http://www.dtcms.com/wzjs/189348.html

相关文章:

  • 个人做房产网站有哪些资料2023年7月最新疫情
  • 一个网站的基调线上营销推广方式有哪些
  • 哈尔滨做网站哪好网络推广员每天的工作是什么
  • 专业代做网站广告公司品牌营销推广
  • 做外贸单网上都做的那些网站百度惠生活商家怎么入驻
  • 网站开发响应式网站优化方案怎么写
  • 做爰免费视频网站热点新闻事件素材
  • 淄博网站排名外包网络营销推广有效方式
  • b2c电子商务网站代码刷外链网站
  • 网站建设模板是什么意思sem是什么检测分析
  • 淮北发展论坛百度网站优化培训
  • adobe dreamweaver怎么下载英文seo外链发布工具
  • 一家做运动鞋的网站服务营销策划方案
  • 网站建设口号百度站长平台app
  • 铜陵网站建设千锋教育怎么样
  • 黄金网站app免费视频下载湘潭高新区最新新闻
  • 警告本网站服务器在美国进行维护拼多多搜索关键词排名
  • 做网站应该会什么软件资源最全的网盘搜索引擎
  • 幼儿园校园网站建设情况咨询公司
  • 手机网站模板制作百度2020新版下载
  • 北京网站建设有哪些常用的网络营销推广方法有哪些
  • 余姚建设公司网站百度推广怎么样
  • 专业建网站服务营销培训课程
  • wordpress 清空数据库表详细描述如何进行搜索引擎的优化
  • wordpress日主题免费下载长沙seo霸屏
  • 信息流广告名词解释seo推广排名软件
  • gofair外贸建站seo公司优化方案
  • 合肥城乡建设委员会网站打不开沈阳seo公司
  • 网上注册公司全部流程网络优化排名培训
  • 中山网站建设公司优化大师下载旧版本安装