当前位置: 首页 > news >正文

做大模型应用所需的一点点基础数学理论

1.神经网络的基本理解

神经网络的灵感来源于生物学,人工智能的进步与生物学发展紧密相关。其核心组成部分神经元,通过模拟生物神经元的工作方式进行信息处理。

神经网络由一系列神经元构成

激活函数是神经网络中的关键,属于非线性化函数。它能针对不同输入值x产生不同输出值y,通过训练不断调整权重值(w)和偏移参数(b),实现预期的分类效果。

深度神经网络包含多层神经元。训练时,投喂大量数据样本,不断修正权重值(参数),使整个运算功能达到预期值。

训练过程:训练模型中的参数(w和b)让模型中每一层的权重值趋向合理值

训练一个神经网络的步骤:
1.首先搭建好神经网络,之后给予其大量参数,参数初始状态均为随机值

2.投喂数据不断训练,让所有的参数尽可能趋向于合理化

2.参数训练原理

输入的原始数据会经历累加和激活两种运算方式

目标举例:输入某组组合数x,使其经过运算后得到的y值接近于0,输入另一组组合数x,使其经过运算后得到的y值趋近于1
实现方式:使用某种方式调整权重参数w和偏移参数b使其达到预期的结果

具体实现方式:梯度下降算法

3.梯度下降算法的原理

背景:现在我们有一堆离散的点,我们现在相找出一条线去拟合这些点,因此,我们需要通过梯度下降算法不断训练去找到那条线设直线为y=wx+b,此时,我们要控制的参数是w和b,我们要找的拟合线的方式是找到一条目标线,使得目标线到所有点的距离和值最小。

现在我们对某个点进行分析:假设我现在取x=0.9的点,则此时y的预测值为0.9w+b,将其实际值减去预测值则为某个点到直线的距离,为了消除正负的影响,将得到的结果用平方标识,将所有点得到的(预测值-实际值)平方进行累加和则得到损失值

上述结果为损失值,对于损失值,越小则越好,损失值我们同时可以看作是一个关于w和b的函数

假设我们把b看作常数,此时,loss则可以看作是关于w的一个二次函数

此时,我们把w往w在这一点的函数切线方向去变则会得到更小的loss值,可以loss对w求偏导

w减去一个参数乘上求导计算得到的斜率  
w往切线方向(即往loss减小的方向去更新)
上面的过程调整的参数数量是2个,而我们做大模型调整往往调整的是大量参数而得到最优解,在此过程中,我们用到的也是梯度下降算法
http://www.dtcms.com/a/156754.html

相关文章:

  • 内存四区(栈)
  • Java24 抗量子加密:后量子时代的安全基石
  • 【MCP】了解远程MCP调用背后使用的SSE协议
  • 使用matplotlib绘制Raincloud图/云雨图/柱状图/小提琴图
  • 学习记录:DAY18
  • 图论---LCA(倍增法)
  • 使用 AFL++ 对 IoT 二进制文件进行模糊测试 - 第二部分
  • Spring Boot 3.4.5 运行环境需求
  • 精益数据分析(26/126):依据商业模式确定关键指标
  • Nginx性能优化:从配置到缓存,全面提升Web服务器性能
  • 重定向和语言级缓冲区【Linux操作系统】
  • RT-Thread学习笔记(四)
  • 【Android】四大组件之Service
  • MEME在线进行蛋白氨基酸序列的保守基序预测的具体分析步骤
  • SQL:MySQL 函数
  • 【生成式AI】从原理到实践的创造性革命
  • HackMyVM - Chromee靶机
  • 【Linux】web服务器的部署和优化
  • 嵌入式硬件开发工具---万用表---示波器---仿真器
  • Pygame物理模拟:实现重力、弹跳与简单物理引擎
  • 【Redis】基础2:作为缓存
  • Java在云计算、大数据、云原生下的应用和优势 - 面试实战
  • 【摩尔定律】
  • HTTP, AMQP, MQTT之间的区别和联系是什么?华为云如何适配?
  • 青少年CTF-贪吃蛇
  • Maven的聚合工程与继承
  • 机器学习:逻辑回归实现二元分类
  • Linux扩展
  • 开源AI智能名片链动2+1模式S2B2C商城小程序源码赋能下的社交电商创业者技能跃迁与价值重构
  • 毕业项目-基于java的入侵检测与防御系统