当前位置: 首页 > news >正文

深度学习笔记——神经网络

本文为在拓尔思智能举办的训练营中学习内容的总结,部分内容摘自百度百科

个人在这里推荐一个好用的软件,Trae,主要是免费。

人工神经元是人工神经网络的基本单元。模拟生物神经元,人工神经元有1个或者多个输入(模拟多个树突或者多个神经元向该神经元传递神经冲动);对输入进行加权求和(模拟细胞体将神经信号进行积累和树突强度不同);对输入之和使用激活函数计算活性值(模拟细胞体产生兴奋或者抑制);输出活性值并传递到下一个人工神经元(模拟生物神经元通过轴突将神经冲动输入到下一个神经元)。

nn.Linear线性层
线性层(Linear Layer)又称全连接层(Full-connected Layer),其每个神经元与上一层所有神经元相连,实现对前一层的线性组合/线性变换。每个神经元都和前一层中的所有神经元相连,每个神经元的计算方式是对上一层的加权求和的过程。因此,线性层可以采用矩阵乘法来实现。

# nn.Linear(in_features, out_features, bias=True)
layer = nn.Linear(20, 30)
x = torch.randn(128, 20)
y = layer(x)
y.shape

输出:

torch.Size([128, 30])

这个代码实现从20个特征点向30个的自由转移,也就是线性层的作用。

relu函数:

ReLU,全称为:Rectified Linear Unit,是一种人工神经网络中常用的激活函数,通常意义下,其指代数学中的斜坡函数,即f(x)=max(0,x)

他的应用其实就是把小于0的数值归零

激活函数:是对特征进行非线性的变化,赋予多层神经网络具有深度的意义。

参考了该文章一些内容:

深入理解ReLU函数(ReLU函数的可解释性)-CSDN博客

相关文章:

  • 游戏引擎学习第143天
  • Android 存储路径详解
  • 恭喜!《哪吒2》明天将荣登世界影坛第六!目前仅差1.81亿元
  • Java基础关键_018_集合(二)
  • PDF文档中表格以及形状解析-后续处理(长线段根据交点打断成短线段)
  • C++知识整理day12——set容器和map容器
  • Android AudioFlinger(五)—— 揭开AudioMixer面纱
  • 前端安全面试题汇总及参考答案
  • 豆包大模型 MarsCode AI 刷题专栏 002
  • Android 平台架构系统启动流程详解
  • 正则表达式,idea,插件anyrule
  • 003-Boost文件锁
  • ADB 和 Monkey 进行 Android 应用的测试和调试
  • 【Java代码审计 | 第九篇】文件写入漏洞成因及防范
  • Manus是由中国创业公司Monica研发的通用型AI智能体
  • 何有效预防神经性头抖
  • 使用Node.js从零搭建DeepSeek本地部署(Express框架、Ollama)
  • 【C#】async与await介绍
  • JAVASE(一)
  • 计算机视觉|3D卷积网络VoxelNet:点云检测的革新力量
  • 营销网站创建/如何进行seo搜索引擎优化
  • 项目计划书封面/广州网站seo
  • 浏览器怎么打开网站服务器设置/昆山网站建设推广
  • 那个网站有兼职做室内设计/软件外包
  • 自己做网站怎么连接外网/全球新冠疫情最新消息
  • 专业的广州微网站建设/免费推广产品的网站