当前位置: 首页 > news >正文

网站制作的软件湖北疫情最新消息

网站制作的软件,湖北疫情最新消息,常熟港口建设费申报网站,做网站设计的需要什么材料文章目录 1 概述1.1 要点1.2 代码1.3 引用 2 预备知识3 方法3.1 MaxLogit3.2 改进MaxCosine和MaxNorm3.3 DML 1 概述 1.1 要点 题目:解耦最大logit分布外检测 (Decoupling maxlogit for out-of-distribution detection) 方法: 提出了一种心机基于log…

文章目录

  • 1 概述
    • 1.1 要点
    • 1.2 代码
    • 1.3 引用
  • 2 预备知识
  • 3 方法
    • 3.1 MaxLogit
    • 3.2 改进MaxCosine和MaxNorm
    • 3.3 DML+

1 概述

1.1 要点

题目:解耦最大logit分布外检测 (Decoupling maxlogit for out-of-distribution detection)

方法

  1. 提出了一种心机基于logit的OOD方法,解耦最大逻辑 (DML);
  2. 考虑硬样本和紧凑特征空间,提出改进后的DML+;
  3. 解耦最大logit (MaxLogit) 为高效的MaxCosine和保证性能的MaxNorm

1.2 代码

暂无。

1.3 引用

@inproceedings{Zhang:2023:33883397,
author		=	{Zhang, Zi Han and Xiang, Xiang},
title		=	{Decoupling {MaxLogit} for out-of-distribution detection},
booktitle	=	{{CVPR}},
pages		=	{3388--3397},
year		=	{2023},
}

2 预备知识

已知一个 K K K类分类器:
f ( x , W full ) = b L + W L δ ( ⋯ δ ( b 1 + W 1 x ) ⋯ ) , (1) \tag{1} f(x,W_\text{full})=b_L+W_L\delta(\cdots\delta(b_1+W_1x)\cdots), f(x,Wfull)=bL+WLδ(δ(b1+W1x)),(1)其中 W W W表示权重、 b b b表示偏置,以及 δ ( ⋅ ) \delta(\cdot) δ()表示非线性激活函数。给定属于第 k k k类的数据 x k , i x_{k,i} xk,i,定义最后一层的特征 h k , i ∈ R d , f ( x ; W full ) = b L + W L h k , i h_{k,i}\in\mathbb{R}^d,f(x;W_\text{full})=b_L+W_Lh_{k,i} hk,iRd,f(x;Wfull)=bL+WLhk,i。为了简便,后面的分析将不包含偏置项。然后logit表示为 z k , i = W L h k , i z_{k,i}=W_Lh_{k,i} zk,i=WLhk,i

给定训练集 D t r = { ( x k i , k ) } i = 1 N ∼ P t r \mathcal{D}_{tr}=\{(x_{k_i},k)\}_{i=1}^N\sim\mathcal{P}_{tr} Dtr={(xki,k)}i=1NPtr。首先在训练集上训练模型,OOD检测的目的是决定给定的样本来自于 P t r \mathcal{P}_{tr} Ptr还是其它数据分布。因此,OOD检测的两个关键问题是:

  1. 训练一个对OOD数据健壮的数据,即便于区分ID和OOD数据;
  2. 设计一个评分函数,使得得分低的是OOD数据;

两个特征坍塌指标定义如下:

  1. 类内特征收敛 (WFC):
    WFC : = trace ( Σ W Σ B † ) K , (2) \tag{2} \text{WFC}:=\frac{\text{trace}(\Sigma_W\Sigma_B^\dag)}{K}, WFC:=Ktrace(ΣWΣB),(2)
  2. 类平均特征收敛 (CFC):
    CFC : = ∑ k = 1 K ∥ h ‾ k ∥ h ∥ F − w k ∥ W ∥ F ∥ , (3) \tag{3} \text{CFC}:=\sum_{k=1}^K\left\| \frac{\overline{h}_k}{\|h\|_F} -\frac{w_k}{\|W\|_F} \right\|, CFC:=k=1K hFhkWFwk ,(3)其中 † \dag 表示伪逆, h h h是所有样本的特征矩阵, h ‾ k \overline{h}_k hk h ‾ \overline{h} h分别表示第 k k k类和所有特征的平均值, Σ W = 1 K n ∑ k = 1 K ∑ i = 1 n ( h k , i − h ‾ k ) ( h k , i − h ‾ k ) ⊤ \Sigma_W=\frac{1}{K_n}\sum_{k=1}^K\sum_{i=1}^n(h_{k,i}-\overline{h}_k)(h_{k,i}-\overline{h}_k)^\top ΣW=Kn1k=1Ki=1n(hk,ihk)(hk,ihk),以及 Σ B = 1 K ∑ k = 1 K ( h ‾ k − h ‾ ) ( h k − h ‾ ) ⊤ \Sigma_B=\frac{1}{K}\sum_{k=1}^K(\overline{h}_{k}-\overline{h})(h_{k}-\overline{h})^\top ΣB=K1k=1K(hkh)(hkh)

3 方法

3.1 MaxLogit

一个样本的MSP得分是其最大softmax值: max ⁡ ( Softmax ( z k , i ) ) \max(\text{Softmax}(z_{k,i})) max(Softmax(zk,i))。MaxLogit则取样本的最大logit值: max ⁡ ( z k , i ) \max(z_{k,i}) max(zk,i)

MaxLogit在很多数据集上优于MSP。评分函数上的单调递增函数变化,例如 log ⁡ \log log exp ⁡ \exp exp,不会影响OOD检测性能。因此,MSP和MaxLogit唯一的差别是求和项 ∑ j = 1 K exp ⁡ ( z i j ) \sum_{j=1}^K\exp(z_{ij}) j=1Kexp(zij)。当模型收敛后,该项主要受特征范数影响。因此,MSP和MaxLogit的主要区别集中在特征范数。这启发我们研究cosine相似性和特征范数如何影响OOD检测性能。

本文将MaxLogit解耦为两个部分:
MaxCosine : max ⁡ ( cos ⁡ < h k , i , w j > ) j = 1 K , (4) \tag{4} \text{MaxCosine}:\max\left( \cos<h_{k,i},w_j> \right)_{j=1}^K, MaxCosine:max(cos<hk,i,wj>)j=1K,(4) MaxNorm : ∥ h k , i ∥ . (5) \tag{5} \text{MaxNorm}:\| h_{k,i} \|. MaxNorm:hk,i∥.(5)MaxLogit得分等价于MaxCosine和MaxNorm得分的乘积。由于应用递增函数变换不会影响OOD检测的性能,因此MaxLogit可以用两个独立的部分来描述: log ⁡ ( max ⁡ ( z k , i ) ) = log ⁡ ( max ⁡ ( cos ⁡ < h k , i , w j > ) ) + log ⁡ ∣ h k . i ∣ + log ⁡ ∣ w ∣ \log(\max(z_{k,i}))=\log(\max(\cos<h_{k,i},w_j>))+\log|h_{k.i}|+\log|w| log(max(zk,i))=log(max(cos<hk,i,wj>))+loghk.i+logw,其是MaxCosine和MaxNorm的耦合项。注意对于分类器权重 w j w_j wj,其在模型收敛后为常数,因此用常量|w|来代替。

基于以上结果,提出了解耦MaxLogit (DML):
DML = λ MaxCosine + MaxNorm , (6) \tag{6} \text{DML}=\lambda\text{MaxCosine}+\text{MaxNorm}, DML=λMaxCosine+MaxNorm,(6)其中 λ \lambda λ是超参数。

3.2 改进MaxCosine和MaxNorm

尽管MaxNorm使得DML优于MaxCosine,但由于MaxNorm的性能较低,因此改进幅度很小。通过实验发现:

  1. Cosine分类器可以引导更好的MaxCosine、MaxNorm,以及基于logit的方法;
  2. 低WFC引导更好的MaxNorm,其通过Center损失获取:
    L c e n t e r = ∑ k = 1 K ∑ i = 1 n ∥ h k , i − C k ∥ 2 , (7) \tag{7} \mathcal{L}_{center}=\sum_{k=1}^K\sum_{i=1}^n\|h_{k,i}-\mathcal{C}_k\|_2, Lcenter=k=1Ki=1nhk,iCk2,(7)其中 C k \mathcal{C}_k Ck是第 k k k类的平均特征;
  3. 低CFC引导更好的MaxCosine,其通过Focal损失获取:
    L f o c a l = − ∑ k = 1 K ∑ i = 1 n ( 1 − p k i ) γ log ⁡ ( p k , i ) , (8) \tag{8} \mathcal{L}_{focal}=-\sum_{k=1}^K\sum_{i=1}^n(1-p_{k_i})^\gamma\log(p_{k,i}), Lfocal=k=1Ki=1n(1pki)γlog(pk,i),(8)其中 γ \gamma γ是超参数,以及 p k , i p_{k,i} pk,i是sofrmax得分。

3.3 DML+

为了进一步提升,一个健壮的方法是:

  1. 利用Focal损失训练cosine模型,并获得MaxCosine;
  2. 利用Center损失训练cosine模型,并获得MaxNorm;

这样的方法被命名为DML+:
D M L + = λ MaxCosine F + MaxNorm C , DML+=\lambda\text{MaxCosine}_F+\text{MaxNorm}_C, DML+=λMaxCosineF+MaxNormC,其中 MaxCosine F \text{MaxCosine}_F MaxCosineF表示使用Focal损失训练模型, MaxNorm C \text{MaxNorm}_C MaxNormC表示使用Center损失训练模型,其分别被记为 M C F MCF MCF和MNC。

http://www.yidumall.com/news/78848.html

相关文章:

  • 网站做的和别人一样违法关键词优化排名查询
  • 帝国生成网站地图网络seo优化公司
  • 重新建网站需要转域名吗优化公司网站排名
  • 手机之家宁波seo网络推广报价
  • 境外网站 备案热词搜索排行榜
  • wordpress插件吧长沙seo推广优化
  • 找人做网站产生纠纷算诈骗吗西安seo服务外包
  • 中国建筑设计研究院济源新站seo关键词排名推广
  • 洛阳做网站价格企业营销策划有限公司
  • 上海网站建设 润合肥做网站哪家好
  • 珠海网站制作专业新网站 seo
  • 全能网站建设企业培训的目的和意义
  • 网站设计规划的一般流程什么网站可以发布广告
  • 定制网站案例百度问答平台入口
  • 网站整站优化网络营销题库案例题
  • 做免费的网站教程网络营销课程速成班
  • 主机屋 大网站搜索引擎广告的优缺点
  • 徐州做网站哈尔滨关键词优化报价
  • 环球资源网的网站特色搜索大全引擎地址
  • 承德做网站公司2024年2月疫情又开始了吗
  • 成都微信小程序制作湖南靠谱seo优化
  • 企业展厅公司哪家好娄底地seo
  • 太原便宜做网站的公司郑州seo优化推广
  • 南阳网站建设新闻百度收录网站入口
  • 临沂网站建设有哪些外链购买平台
  • 郑州哪些公司做网站建设培训总结怎么写
  • 郑州响应式网站制作永久8x的最新域名
  • 电商是什么?一般是干嘛的百度seo排名优化公司推荐
  • 安卓移动网站开发详解网页
  • 音乐网站数据库怎么做平台seo什么意思