当前位置: 首页 > news >正文

脉冲神经网络(Spiking Neural Network, SNN)与知识蒸馏(Knowledge Distillation, KD)

目录

脉冲神经网络(Spiking Neural Network, SNN)

知识蒸馏(Knowledge Distillation, KD)

三种类别

三种变体


脉冲神经网络(Spiking Neural Network, SNN)

收到生物神经系统的启发,设计的,比传统的ANN接近于神经元的运作方式,神经元接收来自其他神经元的脉冲信号(输入)。当接收到的输入信号累积到一定程度(超过某个阈值)时,神经元自身也会“放电”,产生一个脉冲,并将这个脉冲传递给下游连接的神经元。

与ANN的输入是连续的不同,SNN的输入是离散的脉冲信号,脉冲信号的强度频率、发出的时间点以及多个神经元的脉冲之间的时间顺序记录着信息。

计算只在有脉冲事件(输入或输出)发生时被触发。没有脉冲时,神经元可能处于相对“静息”状态。这可以带来潜在的高能效优势,特别适合在专用硬件(神经形态芯片)上运行。

目前脉冲的离散性和时间依赖性使得标准的反向传播难以直接应用,需要开发新的训练算法(如代理梯度法)

知识蒸馏(Knowledge Distillation, KD)

 是一种模型压缩知识迁移技术,其核心思想是让一个小型的学生模型(Student Model) 学习一个大型的教师模型(Teacher Model) 的“知识”,从而使学生模型在保持较小规模的同时,获得接近甚至超越教师模型的性能。

大的teacher model   经过knowledge transfer把学到的知识传递给student model。

三种类别

基于响应 data分别给teacher模型和student模型,各自生成自己的logits然后disillusioned loss

基于特征 data分别给teacher模型和student模型,模型训练时候各自交流

基于关系 相关性学习

三种变体

  1. 自蒸馏(Self-Distillation)同一模型的不同部分互为师生(例如:深层网络指导浅层网络)。

  2. 离线 教师模型预先训练固定。

  3. 在线蒸馏 教师和学生模型同步更新(如相互学习)。

http://www.dtcms.com/a/286381.html

相关文章:

  • 有好内容,如何做好知识变现?
  • BIST会对锁步核做什么?
  • 深入了解直播美颜SDK:GPU加速下的美白滤镜功能实现?
  • 解决 IDEA 中 XML 文件的 “URI is not registered” 报错
  • html5+css3+canvas纯前端4字方形LOGO生成器
  • 【C# in .NET】17. 探秘类成员-构造函数与析构函数:对象生命周期管理
  • Beagle 480 USB分析仪
  • 差分数组算法
  • 柴油机活塞cad【4张】三维图+设计说明书
  • ollma dify 搭建合同审查助手
  • RabbitMQ—TTL、死信队列、延迟队列
  • ChatGPT Agent技术架构探析
  • 读书笔记(学会说话)
  • 变频器实习总结3 ISU单元 船舶电力系统
  • 锁步核,为什么叫锁步核?
  • jar命令提取 JAR 文件
  • AI 驱动的仪表板:从愿景到 Kibana
  • MySQL之SQL 优化全攻略:从原理到实战
  • 2025年华为认证之HCIE-云计算方向的报考流程
  • STM32之TB6612电机驱动模块
  • Oracle 11g RAC 高可用集群部署最佳实践
  • Level-MC 8”深暗之域“
  • 面向对象三大特性---继承
  • 大数据安全规划总体方案
  • 【深度学习】神经网络 批量标准化-part6
  • 在 OpenSUSE Tumbleweed 和 Leap 上安装 VirtualBox
  • Maven插件检测全路径名冲突如何开发Maven插件
  • AUTOSAR进阶图解==>AUTOSAR_SWS_E2ETransformer
  • 【加解密与C】Rot系列(二)Rot13
  • LVS(Linux virual server)