当前位置: 首页 > wzjs >正文

网站制作价格和流程百度sem竞价推广pdf

网站制作价格和流程,百度sem竞价推广pdf,做网站便宜的公司,上那个网站做测试用例lecture01 零样本学习(Zero-Shot Learning, ZSL): 模型可以在没有见过某种特定任务或类别的训练样本的情况下,直接完成对应的任务 利用知识迁移 模型在一个任务上训练时学到的知识,能够迁移到其他任务上比如,模型知道“狗”和“…

lecture01

零样本学习(Zero-Shot Learning, ZSL):

  1. 模型可以在没有见过某种特定任务或类别的训练样本的情况下,直接完成对应的任务

  2. 利用知识迁移

    1. 模型在一个任务上训练时学到的知识,能够迁移到其他任务上
    2. 比如,模型知道“狗”和“猫”都属于“动物”,因此,即使没见过“狐狸”的图片,也可以通过“动物”这个概念推测“狐狸”可能属于“动物”
  3. 借助语义信息

    1. 零样本学习通常依赖于额外的语义信息(如类标签的描述、文本嵌入、图像特征等)
    2. 例如,在分类任务中,类别名称的文本描述可以帮助模型理解新的类别
  4. 关键技术:

    1. 共享特征空间
      1. 模型通过将已知类别的特征和未知类别的语义描述映射到同一个特征空间来实现知识迁移
      2. 例如,将图片嵌入和文本嵌入映射到一个共同空间,模型可以比较图片特征和文本描述的相似性
    2. 使用预训练模型
      1. 许多预训练语言模型(如GPT、BERT)和多模态模型(如CLIP)对零样本学习效果非常好
      2. 这些模型在大量多任务数据上训练,可以理解广泛的语义信息
    3. 多模态方法
      1. 跨文本和图像的模型(如CLIP)在零样本任务中尤为突出,它们通过学习文本和图像的对应关系实现任务迁移

思维链(Chain of Thought, CoT):

  1. 一种用于大语言模型(LLM)的推理策略,通过让模型生成逐步的推理步骤,从而提高复杂任务(如数学推算、逻辑推理、问答等)的准确性和解释性

  2. 传统的模型往往直接给出答案,而思维链方法引导模型像人类一样,分步骤思考问题,提高了解决复杂问题的能力

  3. 主要策略:

    1. 逐步推理:将一个复杂问题分解成多个小的、容易解决的步骤,模型在推理过程中不仅生成答案,还给出详细的思路
    2. 显式中间步骤:思维链的中间步骤提供了解题过程的可解释性,便于诊断和改进模型的推理
    3. 提升模型性能:对于需要深度推理或多步骤计算的问题,思维链能显著提高模型的准确性
  4. 预训练语言模型生成

    1. 使用提示(Prompting)指导模型逐步推理

    2. eg:
      问题:如果一辆车以每小时60公里的速度行驶4小时,它行驶了多少公里?
      答案:
      1. 每小时行驶60公里。
      2. 行驶4小时。
      3. 总距离是 \(60 \times 4 = 240\) 公里。
      答案是:240公里。
      
  5. 少样本学习(Few-shot Learning)

    1. 在输入中加入几个例子,让模型学习如何分步骤回答

    2. 示例1:
      问题:如果小明有2个苹果,每个苹果价值3元,他总共有多少钱?
      答案:
      1. 每个苹果价值3元。
      2. 小明有2个苹果。
      3. 总价值是 \(3 \times 2 = 6\) 元。
      答案是:6元。问题:如果一辆车每小时行驶70公里,行驶3小时,它行驶了多少公里?
      答案:
      
  6. 微调模型:将逐步推理的标注数据用来微调模型,使其能够生成思维链


算法、硬件、数据

AI设备性能指标:

  1. FLOPS(Floating Point Operations Per Second): 浮点计算能力;FLOPS 是衡量设备计算能力的指标,表示设备每秒能执行的浮点运算次数

    1. 浮点数运算指的是计算机处理小数大数(比如 1.23、0.0005 或 3.14)的加减乘除等操作

    2. AI模型需要大量计算,比如神经网络中的矩阵乘法,FLOPS越大,计算能力越强,也就是能更快、更高效地处理任务

    3. AI 和深度学习领域,常见的位数包括 16位(FP16)32位(FP32)64位(FP64),它们代表浮点数的不同精度,位数越多:表示的数值范围越大,精度越高(更接近真实值)

      1. FP32(32位浮点数):单精度浮点数,每个数占用 4 字节(32 位),传统的深度学习主要使用 FP32,计算精度和速度较均衡,通用深度学习训练和推理任务
      2. FP16(16位浮点数): 半精度浮点数,每个数占用 2 字节(16 位),运算速度更快,因为每次操作处理的数据量更少,推理阶段更常用
      3. FLOPS 的计算能力会因为浮点数精度不同而变化:同一个GPU算力:
        1. FP32:10 TFLOPS(每秒 10 万亿次 FP32 运算)
        2. FP16:20 TFLOPS(每秒 20 万亿次 FP16 运算)
        3. FP64:2 TFLOPS(每秒 2 万亿次 FP64 运算)
      4. 混合精度训练(Mixed Precision Training):
        1. 如( PyTorch、TensorFlow)支持混合精度训练:
          1. 使用 FP16 处理大部分运算以提高速度和节省显存
          2. 在需要高精度的地方(如梯度累积),切换回 FP32
    4. FLOPS 的计算依赖于硬件架构和运行的程序,基本公式如下:

      FLOPS=Number of Cores × Clock Speed (GHz) × Operations Per Clock (OPC)
      

      Number of Cores:处理器(CPU/GPU)的计算核心数,越多并行能力越强

      Clock Speed:每秒钟的时钟频率,单位是 GHz(10 亿次/秒)

      Operations Per Clock:每个时钟周期能执行的浮点运算次数

      eg : NVIDIA RTX 3090

      1. CUDA 核心数:10496 个
      2. 时钟频率(Boost Clock):1.70 GHz
      3. 每个 CUDA 核心的运算能力(FP32):1 次浮点运算/周期
      4. Tensor Core 性能(FP16 混合精度):每个 Tensor Core 每周期可以处理 4 次浮点运算
      5. FP32 FLOPS = 10496 × 1.70GHz × 1OPC = 17843.2GFLOPS = 17.8TFLOPS
      6. FP16 是半精度浮点运算,使用 Tensor Core 时,每周期每个核心的运算能力为 FP32 的 4 倍:FP16 FLOPS=4×17.8=71.2TFLOPS
    5. Tensor Core 是 NVIDIA 针对 AI 和深度学习任务特别设计的硬件加速单元

      1. FP16(半精度浮点)模式下,Tensor Core 每个时钟周期可以执行 4 次浮点运算
      2. TF32FP32 精度下,Tensor Core 也具有加速作用,特别是在进行矩阵运算时
      3. Tensor Core 更像是 加速器,提升了 GPU 在特定任务(如深度学习)中的表现,ensor Core 提升了 CUDA 核心深度学习低精度运算 中的计算能力,尤其是处理矩阵运算时,通过并行处理提升了整体性能

  2. **显存(VRAM 或 Memory)😗*用于存储图形数据、纹理、渲染的帧和其他与显示相关的信息。显存对于 AI 设备(如 GPU)也非常重要,尤其是在 深度学习训练推理

    1. 显存通常用于存储图形渲染的 纹理帧缓冲区几何数据顶点信息

    2. 深度学习 中,显存用来存储训练过程中的 模型参数(如权重、偏置),以及 中间结果(例如在前向传播和反向传播过程中产生的激活值和梯度)

    3. 推理(inference)过程中,显存用于存储需要推理的数据批量以及网络结构和模型权重

    4. GPU 需要快速处理大量数据。显存提供了快速的数据存储和读取通道,减少了从 主内存(系统 RAM)到 GPU 的数据传输延迟,提高了整体性能

    5. 如果显存不足,GPU 可能会变得 受限,因为无法容纳足够的训练数据或模型参数。在这种情况下,GPU 的计算能力可能会受到限制,即使它的 FLOPS 很高

    6. 显存的大小和性能:更大的显存允许 GPU 同时处理更多的数据,从而提升计算效率。对于 AI 训练和推理,显存的大小对处理 大规模数据集复杂模型 的能力至关重要

    7. 批量大小(Batch Size):批量大小是深度学习训练中的一个重要参数。增加批量大小通常可以提升训练效率,但也需要更多的显存。如果显存不足,批量大小必须减少

    8. 显存容量和显存带宽:

      1. 训练复杂的深度神经网络时,模型的大小和数据的批量大小会占用大量显存。如果显存不足,可能会导致 内存溢出(Out of Memory)
      2. 显存带宽 是指显存能够在单位时间内读取或写入的数据量,通常以 GB/s(GB 每秒)为单位。高带宽显存可以提供更高的数据吞吐量,尤其是在需要处理大量并行数
    9. 设备显存类型显存大小显存带宽AI 算力(FLOPS)
      Jetson NanoLPDDR4(低功耗)4 GB25.6 GB/sFP32: 0.5 TFLOPS, FP16: 1 TFLOPS
      RTX 3090GDDR6X24 GB936.2 GB/sFP32: 35.6 TFLOPS, FP16: 71.2 TFLOPS
      RTX 4090GDDR6X24 GB1,008.0 GB/sFP32: 35.6 TFLOPS, FP16: 71.2 TFLOPS
      A100HBM240 GB 或 80 GB1,555 GB/s (40 GB 版本) 或 2,039 GB/s (80 GB 版本)FP32: 19.5 TFLOPS, FP16: 156 TFLOPS, Tensor Core FP16: 312 TFLOPS
http://www.dtcms.com/wzjs/163161.html

相关文章:

  • 如何外贸seo网站建设怎么制作网页
  • 做搜狗手机网站新闻软文发布平台
  • 网站建设的法律问题搜索引擎优化的重要性
  • wordpress滑动图片轮播seo外链怎么做能看到效果
  • 有哪个网站是做水果批发的优化大师班级优化大师
  • 山西建站优化如何做网站赚钱
  • 用wordpress二级菜单导航seo优化搜索推广
  • 珠海特价做网站台州网站制作维护
  • 企业网站设计有名 乐云seo南京seo网络优化公司
  • 小程序做网站打广告去哪个平台免费
  • 淄博网站的建设如何创建一个网站
  • 论坛的网站制作百度24小时人工客服
  • php网站开发干嘛的网络销售平台有哪些软件
  • 大庆网站设计费用营销型网站建设模板
  • wordpress首页不显示文章谷歌seo是指什么意思
  • 重庆市建设厅网站谷歌推广代理
  • 公司网站建设的方案怀化seo推广
  • 微网站建设制作设计厦门推广平台较好的
  • 网络规划设计师百度网盘360优化大师旧版本
  • 做招聘网站排名搜索关键词的方法
  • 天津城乡建设委员会网站seo交流qq群
  • 确定网站推广的阶段目标seo是什么姓
  • wordpress编辑优化seo网络推广优化
  • 查网站服务器速度大型网站建站公司
  • 残疾人网站服务平台百度一下你就知道了 官网
  • 工程建设领域是什么意思手机百度seo快速排名
  • 网页设计策划方案如何点击优化神马关键词排名
  • 做计算机网站有哪些内容企业网站开发
  • 寻求一个专业网站制作公司代写文案平台
  • 网站建设期末总结p2p万能搜索引擎