当前位置: 首页 > wzjs >正文

旅游订票网站开发谷歌怎么投放广告

旅游订票网站开发,谷歌怎么投放广告,页制作与网站建设技术大全,郑州广告设计与制作公司🎯 Focal Loss 深度讲解 🧠 一、直观动机:为什么要 Focal Loss? 传统的 CrossEntropy Loss(交叉熵) 是分类任务的默认选择,它关注的是模型预测正确标签的概率(越高越好)…

🎯 Focal Loss 深度讲解


🧠 一、直观动机:为什么要 Focal Loss?

传统的 CrossEntropy Loss(交叉熵) 是分类任务的默认选择,它关注的是模型预测正确标签的概率(越高越好)。公式如下:

CE ( p t ) = − log ⁡ ( p t ) \text{CE}(p_t) = -\log(p_t) CE(pt)=log(pt)

  • 如果预测得好( p t → 1 p_t \to 1 pt1),损失就很小
  • 如果预测得差( p t → 0 p_t \to 0 pt0),损失就很大

问题来了:
在很多实际场景里,比如目标检测、语义分割、医学图像,存在严重的类别不平衡现象:

  • 正类样本(比如肿瘤区域、小目标)非常稀少
  • 背景类(负类)大量存在,且模型很容易把它分类正确

这导致了什么?

✅ 模型很快学会把大多数都预测成“背景”就能拿到很小的 loss
❌ 正类样本虽然难,但数量少,对 loss 的贡献低,模型懒得理它!

我们要的是什么?

专注于难样本、忽略容易的样本!

这正是 Focal Loss 的使命。


🧮 二、Focal Loss 的数学表达式和直觉解释

⭐ 标准交叉熵(二分类):

CE ( p t ) = − log ⁡ ( p t ) \text{CE}(p_t) = -\log(p_t) CE(pt)=log(pt)

其中:

  • p t = p p_t = p pt=p if label is 1
  • p t = 1 − p p_t = 1 - p pt=1p if label is 0

⭐ Focal Loss:

FL ( p t ) = − α t ( 1 − p t ) γ log ⁡ ( p t ) \text{FL}(p_t) = -\alpha_t (1 - p_t)^\gamma \log(p_t) FL(pt)=αt(1pt)γlog(pt)

参数含义:

  • p t p_t pt:模型对正确类的预测概率
  • α t \alpha_t αt:类别平衡系数
  • γ \gamma γ:focusing parameter,用来衰减简单样本的贡献

🔍 三个部分的直觉理解:

  1. log ⁡ ( p t ) \log(p_t) log(pt):就是交叉熵,衡量你预测的好不好

  2. ( 1 − p t ) γ (1 - p_t)^\gamma (1pt)γ

    • p t p_t pt 很大(预测正确),这个因子趋近于 0 → loss 减小
    • p t p_t pt 很小(预测错误),这个因子接近 1 → 保留大 loss
      关注难样本,忽略易样本!
  3. α t \alpha_t αt:用于调节类别之间的权重(比如正样本少,那正样本的 α \alpha α 设大点)


🔢 三、PyTorch 实现(二分类)

import torch
import torch.nn as nn
import torch.nn.functional as Fclass FocalLoss(nn.Module):def __init__(self, alpha=0.25, gamma=2.0, reduction='mean'):super(FocalLoss, self).__init__()self.alpha = alphaself.gamma = gammaself.reduction = reductiondef forward(self, inputs, targets):# inputs: [B, 1] or [B], logits# targets: [B], 0 or 1BCE_loss = F.binary_cross_entropy_with_logits(inputs, targets, reduction='none')probs = torch.sigmoid(inputs)pt = torch.where(targets == 1, probs, 1 - probs)  # pt = p_tfocal_weight = (1 - pt) ** self.gammaalpha_t = torch.where(targets == 1, self.alpha, 1 - self.alpha)loss = alpha_t * focal_weight * BCE_lossif self.reduction == 'mean':return loss.mean()elif self.reduction == 'sum':return loss.sum()else:return loss

注意:这里 inputs 是 logits,不是 sigmoid 之后的概率!


🧪 四、实际应用场景

应用场景类别不平衡?是否适合用 Focal Loss?
目标检测(小目标)✅严重不平衡✅ 推荐
医学图像分割(肿瘤)✅非常不平衡✅ 强烈推荐
二分类、异常检测任务✅有时不平衡✅ 可尝试
多分类图像识别❌样本相对平衡❌ 不一定需要

🧩 五、和其他 Loss 的对比

损失函数适用场景特点
CrossEntropy通用简单直接
Weighted CE类别不平衡人为加权正负类,但不能区分难易样本
Dice Loss图像分割关注前景 IoU,但不处理类别不平衡
Focal Loss类别极度不平衡聚焦难样本,动态调节 loss 大小

🎯 六、Focal Loss 常见问题

1. γ \gamma γ 设多少合适?

  • 一般设为 2,试试 1~5 范围微调
  • γ \gamma γ 越大,越“懒得理”那些简单样本

2. α \alpha α 必须设吗?

  • 如果类别比例非常悬殊,比如 1:100,那建议设置
  • 常用设置:正类 0.25,负类 0.75

3. 可不可以和 Dice Loss 混合?

  • 可以,特别是在图像分割中常见组合:
loss = focal_loss + dice_loss

✅ 七、一句话终结

Focal Loss = 聚焦困难样本的动态加权交叉熵损失,专为不平衡场景设计,用得对了就是神器!

http://www.dtcms.com/wzjs/385644.html

相关文章:

  • 电子商务网站开发实务石道元百度竞价托管公司
  • 陕西华伟建设有限公司网站平台推广员是做什么的
  • 东莞莞城网站建设自己做网站的流程
  • 盐城网站建设24gx深圳seo优化服务
  • wordpress 画展平台主题seo性能优化
  • 域网站名分类seo搜索引擎优化
  • 怎么制作一个网站的二维码百度seo收录软件
  • 微信网站制作软件有哪些来客seo
  • 政府网站等保必须做吗百度快速查询
  • 做西点的网站44555pd永久四色端口
  • 建购物网站需要些什么天津seo网络营销
  • 二级网站怎样做营销网站案例
  • 加强网站信息怎么做谷歌搜索为什么用不了
  • 武汉光谷网站建设营销技巧和营销方法培训
  • 中高端网站建设淘宝付费推广有几种方式
  • 百度地图手机网站开发搜索引擎广告案例
  • 北京做网站制作公司自己如何注册网站
  • 海珠建网站公司武汉seo优化服务
  • 网站前置审批项 教育外链seo推广
  • 域名注册和网站建设全网络品牌推广
  • 四川有什么好的网站建设公司企业网络营销推广方案
  • 济南集团网站建设百度一下 你就知道官方
  • wordpress主题添加一个自定义页面抖音矩阵排名软件seo
  • 高级网站设计师手写代码篇如何建立自己的博客网站
  • 网页建站专业公司知名品牌营销案例100例
  • 旅游网站建设与网页设计意义推广网址
  • 泉州免费网站制作个人网站制作教程
  • 网站建设摘要江门网站优化公司
  • 连云港网站建设推广江门网站定制多少钱
  • 工程建设领域专项治理工作网站西安网站seo费用