摘要: 帮助文档 各种目录 网站 介绍 中国计算机学会推荐国际学术会议和期刊目录(2022) 此目录为2022年10月中国计算机学会通过的第六版(2023年3月发布)。 Python库 网站 介绍 Vega-Altair 绘图库 PyTorch 深度学习框架 前端 网站 介绍 Element-Plus El 阅读全文
posted @ 2024-06-14 11:58 zh-jp 阅读(44) 评论(0) 推荐(1) 编辑
摘要: 前言 噪声标签学习下的一个任务是:训练集上存在开集噪声和闭集噪声;然后在测试集上对闭集样本进行分类。 训练集中被加入的开集样本,会被均匀得打上闭集样本的标签充当开集噪声;而闭集噪声的设置与一般的噪声标签学习一致,分为对称噪声:随机将闭集样本的标签替换为其他类别;和非对称噪声:将闭集样本的标签替换为特 阅读全文
posted @ 2024-06-29 11:45 zh-jp 阅读(55) 评论(0) 推荐(2) 编辑
摘要: 这篇文章设置的问题是:考虑长尾分布的训练集下,对测试集上的OOD样本进行检测。作者在训练集中引入了open set样本学习异常表征,以OCL(Outlier Class Learn)为baseline,训练时引入prototype方法,推理时对logits进行调整校准。 问题背景 DNNs会把OOD 阅读全文
posted @ 2024-06-20 09:51 zh-jp 阅读(19) 评论(0) 推荐(0) 编辑
摘要: 这篇文章与ICML2022的Open-sampling是同一个作者,方法一模一样,只是问题的场景变为噪声标签学习,Open-sampling是长尾问题的场景,可参见写的这篇blog。 这两篇文章大致做法完全相同:对biased数据集引入开集数据,在a56爆大奖在线娱乐epoch分配均匀的闭集标签。如果是long t 阅读全文
posted @ 2024-06-14 19:31 zh-jp 阅读(9) 评论(0) 推荐(0) 编辑
摘要: 在长尾数据中,作者主动加入开集噪声,并按一定比例赋予噪声样本闭集标签,来帮助长尾学习。 引入开集样本训练模型有点像dropout,“破坏”某些模型参数防止尾部类的过拟合 Motivation 长尾学习中的训练数据集分布不平衡的问题,解决方法之一是重采样。重采样主要对于尾部类重复采用,但这种做法往往会 阅读全文
posted @ 2024-06-07 17:27 zh-jp 阅读(18) 评论(0) 推荐(0) 编辑
摘要: import datetime from sqlalchemy import Column, String, inspect, Integer from sqlalchemy.ext.declarative import declarative_base from sqlalchemy.orm im 阅读全文
posted @ 2024-05-11 12:14 zh-jp 阅读(12) 评论(0) 推荐(0) 编辑
摘要: 前言 类激活图CAM(class activation mapping)用于可视化深度学习模型的感兴趣区域,增加了神经网络的可解释性。现在常用Grad-CAM可视化,Grad-CAM基于梯度计算激活图,对比传统的CAM更加灵活,且不需要修改模型结构。 虽然计算grad-cam并不复杂,但是本着能导包 阅读全文
posted @ 2024-04-18 16:03 zh-jp 阅读(214) 评论(0) 推荐(0) 编辑
摘要: t-SNE理论相关理论可参见t-SNE 算法。a56爆大奖在线娱乐通过PyTorch提供的预训练Resnet50提取CIFAR-10表征,并使用t-SNE进行可视化。 加载预训练Resnet50 import torch from torchvision.models import resnet50, ResNet 阅读全文
posted @ 2024-04-16 19:35 zh-jp 阅读(129) 评论(0) 推荐(0) 编辑
摘要: 这篇文章作者写得非常详细,读起来非常舒适。 Contribution: 在long-tailed data中,re-sampling不一定有效。 re-sampling的失败可能是对于不相关的context过拟合导致的,作者设计了实验论证了这一假说。 在single-stage的框架下,作者提出了上 阅读全文
posted @ 2024-04-14 18:30 zh-jp 阅读(17) 评论(0) 推荐(0) 编辑
摘要: 初始工作 定义一个模拟的长尾数据集 import torch import numpy as np import random from torch.utils.data import Dataset, DataLoader np.random.seed(0) random.seed(0) torc 阅读全文
posted @ 2024-04-09 21:07 zh-jp 阅读(203) 评论(0) 推荐(0) 编辑
摘要: 这篇论文: 提出了prob-and-allocate训练策略,在prob阶段获得样本损失,在allocate阶段分配样本权重。 以[2]的meta-weight-net为Baseline,取名为CurveNet,进行部分改动。 另外,这篇论文提供的源码结构混乱,复现难度较大。主要的工作也是基于met 阅读全文
posted @ 2024-04-04 18:40 zh-jp 阅读(110) 评论(0) 推荐(0) 编辑
摘要: 文章提供的代码结构简洁,简单易懂,十分适合作为Baseline。省去冗长的数学证明,直接看文章的贡献: 受SVM的hinge loss启发,提出了新的Loss函数鼓励a56爆大奖在线娱乐类在表征空间有更大的margin。 延迟re-weighting的trick。 在多个数据集,包括情感分类、图像分类进行实验。 M 阅读全文
posted @ 2024-03-24 21:12 zh-jp 阅读(87) 评论(0) 推荐(0) 编辑
摘要: 用自监督学习MoCO提取表征,然后分布校准(与tailed class 相似的head classes去校准tailed class的分布)。没有开源,没有创新。 Introduction 作者考虑了数据集常见的两个问题:1、部分数据被错误得标注;2、数据呈长尾分布。之前涌现了很多工作分别针对这两个 阅读全文
posted @ 2024-03-13 12:22 zh-jp 阅读(67) 评论(0) 推荐(0) 编辑
摘要: 背景 Mixup(混合) 定义 对于一个样本\((x_i,y_i)\),将其与另一个样本\((x_j,y_j)\)混合: \[\begin{aligned} \tilde{x}_i &= \lambda x_i + (1-\lambda)x_j, \\ \tilde{y}_i &= \lambda 阅读全文
posted @ 2024-03-08 11:41 zh-jp 阅读(41) 评论(0) 推荐(0) 编辑
摘要: 1. 加载数据集 MNIST from torchvision import datasets, transforms transform = transforms.Compose([ transforms.ToTensor(), # value of pixel: [0, 255] -> [0, 阅读全文
posted @ 2024-03-04 14:57 zh-jp 阅读(58) 评论(0) 推荐(2) 编辑