当前位置: 首页 > wzjs >正文

dede旅游网站源码 多城市企业网站模板包含什么

dede旅游网站源码 多城市,企业网站模板包含什么,注册网站时跳过验证码,邢台信息发布平台声明:本代码非原创,是博主跟着国外大佬的视频教程编写的,本博客主要为记录学习成果所用。 我们首先开始编写视觉模型这一部分,这一部分的主要功能是接收一个batch的图像,并将其转化为上下文相关的嵌入向量,…
声明:本代码非原创,是博主跟着国外大佬的视频教程编写的,本博客主要为记录学习成果所用。

我们首先开始编写视觉模型这一部分这一部分主要功能接收一个batch图像将其转化上下文相关嵌入向量这一阶段我们需要做的事情以下这些

  • 编写一个全局通用视觉配置
  • 编写用户模型调用
  • 输入图像嵌入向量
  • 通过transformer编码图像嵌入向量进行编码使其上下文相关

我们一个个实现这些代码

视觉模型配置

视觉模型配置主要如下

class SiglipVisionConfig:def __init__(
			self,
			hidden_size=768,
			num_hidden_layers=12,
			num_attention_heads=12,
			intermediate_size=3072,
			num_channels=3,
			image_size=224,
			patch_size=16,
			attention_dropout=0.0,
			layer_norm_eps=1e-6,
			num_image_tokens: int = None,**kwargs):super().__init__(**kwargs)
		self.hidden_size = hidden_size ## embedding 的维度
		self.num_hidden_layers = num_hidden_layers ## 隐藏层的数量
		self.num_attention_heads = num_attention_heads ## 注意力头数量
		self.intermediate_size = intermediate_size ## 线性层的维度 
		self.num_channels = num_channels ##图像的RGB通道
		self.image_size = image_size ## 图像尺寸,任何图像size都会被缩放到这个尺寸
		self.patch_size = patch_size ## 每个patch的尺寸
		self.attention_dropout = attention_dropout ## 注意力层dropout
		self.layer_norm_eps = layer_norm_eps ## 层归一化epsilon
		self.num_image_tokens = num_image_tokens ## 图像token数量,它实际上是一个固定值

为了各个变量涵义更加浅显易懂博主增加中文注释

顶层模型

随后用户模型用户只需要一个batch图像传入调用forward函数即可返回这些图像上下文相关embeddings

代码如下

class SiglipVisionModel(nn.Module): ## 最顶层的视觉模型,它负责顶层的传入和编码的输出def __init__(self, config:SiglipVisionConfig):super().__init__()self.config = configself.vision_model = SiglipVisionTransformer(config)def forward(self, pixel_values) -> Tuple:# [Batch_size,Channels,Height,Width] ->  [Batch_size,Num_Patches(num_image_token),Embedding_size(Hidden_size)]return self.vision_model(pixel_values = pixel_values)	

其中输入形状 [ Batch_size, Channels, Height, Width ],对应一个图像batch各自RGB通道像素输出 [ Batch_size, Num_Patches, Embedding_size ], 对应各个图像每个分割Patch嵌入结果

模型拆分

我们需要内部一次视觉模型调用拆分两个模型各自的调用也就是拆分嵌入模型Transformer编码这里我们创建一个SiglipVisionTransformer将其分成两个模型调用

代码如下

class SiglipVisionTransformer(nn.Module): ##视觉模型的第二层,将模型的调用分为了图像嵌入模型和transformer编码器模型的调用def __init__(self, config:SiglipVisionConfig):super().__init__()self.config = configself.embed_dim = config.hidden_sizeself.embeddings = SiglipVisionEmbeddings(config) ## 负责将图像嵌入成向量self.encoder = SiglipEncoder(config) ## 负责将向量编码成注意力相关的向量self.post_layer_norm = nn.LayerNorm(embed_dim, eps=config.layer_norm_eps) ## 层归一化def forward(self, pixel_values:torch.Tensor) -> torch.Tensor:"""
		pixel_values: [Batch_size,Channels,Height,Width]"""## [ Batch_size,Channels,Height,Width] -> [Batch_size,Num_Patches,Embedding_size] 
		hidden_states = self.embeddings(pixel_values) ## 将图像嵌入成向量# [Batch_size,Num_Patches,Embedding_size] -> [Batch_size,Num_Patches,Embedding_size]
		last_hidden_state = self.encoder(hidden_states) ## 将向量编码成注意力相关的向量# [Batch_size,Num_Patches,Embedding_size] -> [Batch_size,Num_Patches,Embedding_size]
		last_hidden_state = self.post_layer_norm(last_hidden_state)return last_hidden_state

嵌入模型

嵌入模型初始图像像素初步转换patch编码向量list, 同时阶段我们使用位置编码位置编码形式多种这里我们采用自学习嵌入向量每个位置创建一个可以学习参数向量形成位置矩阵使用时候根据indices位置矩阵抽取对应位置向量即可

代码

class SiglipVisionEmbeddings(nn.Module):	def __init__(self, config:SiglipVisionConfig):
		self.config = config
		self.patch_size = config.patch_size
		self.image_size = config.image_size
		self.embed_dim = config.hidden_size		self.patch_embedding = nn.Conv2d(
			in_channels = config.num_channels,
			out_channels = self.embed_dim,
			kernel_size = self.patch_size,
			stride = self.patch_size,
			padding = 'valid', ##不加padding)		self.num_patches = (self.image_size // self.patch_size) ** 2 ## 图像的patch数量 (224 // 16) ** 2 = 196
		self.num_positions = self.num_patches		self.position_embeddings = nn.Embedding(self.num_positions, self.embed_dim)		self.register_buffer("position_ids",
			torch.arange(self.num_positions).expand((1, -1)), ## 这里expand是为了保持和patch_embeds的维度一致,以便可以直接与之相加
			persistent=False,)	def forward(self, pixel_values:torch.FloatTensor) -> torch.Tensor:"""
		pixel_values: [Batch_size,Channels,Height,Width]
		"""
		_ , _ , height, width = pixel_values.shape## 卷积,3通道转embedding_size通道
		patch_embeds = torch.FloatTensor(self.patch_embedding(pixel_values)) ## [Batch_size,Channel,Height,Width] -> [Batch_size,Embedding_size,Num_Patches_Height,Num_Patches_Width]## flatten
		patch_embeds = patch_embeds.flatten(2) # [Batch_size,Embedding_size,Num_Patches_Height,Num_Patches_Width] -> [Batch_size,Embedding_size,Num_Patches]## transpose
		patch_embeds = patch_embeds.transpose(1,2) ## [Batch_size,Embedding_size,Num_Patches] -> [Batch_size,Num_Patches,Embedding_size] ## positon_encoding
		patch_embeds = patch_embeds + self.position_embeddings(self.position_ids) ## [Batch_size,Num_Patches,Embedding_size]  自学习的位置编码return patch_embeds

上面卷积配置表示我们希望卷积结果patch_size * embedding_size维度为了方便大家理解

这里简单介绍一下torch卷积

pytorch2D卷积

卷积通过卷积图像特征提取出来卷积操作可以如图所示

卷积操作本质输入区域展平向量同时卷积核展平向量做一次内积得到输出位置

torch卷积公式:

这里N_i 第i个batchCout_j 是指j输出通道输出星号代表二维区域weight权重input区域做一次卷积

这里可以看到多出一个通道概念其实对于图像来说输入通道就是RGB通道输出通道你希望一个卷积的图像区域多少特征

用图展示如下

这里彩色方块是1*1的卷积核我们希望一个三个输入通道输入卷积得到三个输出通道输出这样对于每个通道conv2D都会为其生成三个卷积核每个通道卷积结果卷积核顺序对应相加比如第一个输出通道的结果等于三个输入通道各自第一个卷积核卷积结果进行相加得到

由此再来这个公式

j输出通道结果等于所有输入通道j输出通道卷积卷积结果相加加上一个偏置矩阵得到


文章转载自:

http://GS892vL0.rbjth.cn
http://NRFmoyTv.rbjth.cn
http://8q5t1sfi.rbjth.cn
http://AG3Wdt1R.rbjth.cn
http://fkxhgeAe.rbjth.cn
http://tK6XydvP.rbjth.cn
http://ld5sqRNf.rbjth.cn
http://uJkpSAYB.rbjth.cn
http://zWDn8t9c.rbjth.cn
http://dp3tjBsl.rbjth.cn
http://w7H8IgHB.rbjth.cn
http://nFZEd2Cx.rbjth.cn
http://ojo6s4e6.rbjth.cn
http://v5fd4rO4.rbjth.cn
http://NEMITLQt.rbjth.cn
http://jaT2Vas6.rbjth.cn
http://pROPouyk.rbjth.cn
http://zhGhtT7x.rbjth.cn
http://dA5AVNIy.rbjth.cn
http://HqjCrbvW.rbjth.cn
http://nH8Lrl9l.rbjth.cn
http://eFacSGDC.rbjth.cn
http://Sa6YRkAg.rbjth.cn
http://Jz41y7eg.rbjth.cn
http://bisoc2w4.rbjth.cn
http://Tvvdy9hU.rbjth.cn
http://p676ClcR.rbjth.cn
http://ZcyJTy1c.rbjth.cn
http://UJqhqjbr.rbjth.cn
http://W45MEbT0.rbjth.cn
http://www.dtcms.com/wzjs/695161.html

相关文章:

  • 私有云可以做网站农村建设自己的网站
  • 1空间做2个网站什么是网站版式
  • 做网站应该学什么电器网站建设
  • 海南找人做网站河南县公司网站建设
  • q版设计网站北京网站建设价格行情
  • 做二手房又做网站的建设网站的重要性
  • 县区网站集约化平台建设研究镇江还有什么网站吗
  • 中国建设银行官网站汽车卡页面设计公司会招低学历的人吗
  • 遵义市网站建设公司移动电商网站设计
  • 鑫路网站建设云南app开发公司哪家好
  • 深圳网站制作要多少钱江苏省建设厅网站证件查询
  • 北京企业网站建设报价虚拟机中做网站
  • 官方网站建设最重要的是什么婴儿衣服做的网站好
  • 济南网站建设工资wordpress迁移不能用
  • 网站做调查需要考虑的内容专业做网站公司怎么样
  • 网站厨师短期培训班wordpress论坛功能
  • 银川网站推广方式做采集网站赚钱吗
  • 网站建设互联网营销营销推广网站视觉设计规范
  • 制作网站公司那家好妇联网站建设方案
  • 招聘网站设计师要求网站建设 金手指 下拉22
  • 最火的网页游戏排行榜东莞百度seo推广机构
  • 做俄语网站阿里云网站建设基本流程
  • 电商网站是什么意思如何用 python 做网站
  • html5手机网站发布网站正在建设中中文模板
  • 网站站群怎么做代理网址代码
  • 自助建站平台有哪些网站权重怎么看
  • 企业网站建设上机考试咸阳建设网站
  • 律师网站建设模板长沙网页网站制作
  • 一起做网店网站桂林漓江自由行攻略
  • 桂林北站到象鼻山景区怎么坐车图片展示型网站模板