索引
细粒度分类
Fine-Grained Visual Classification via Internal Ensemble Learning Transformer
IEEE Transactions on Multimedia (TMM) ,2023
- 多头注意力弱学习器集成(投票机制)--->解决层内头间性能不均衡,识别图像更多的局部关键部位,找到重要的关键的特征
- 跨层融合抑制噪声,增强特征表达,在于如何更好的跨层融合。 --->层间融合性能问题
- 动态调整各层的token选择数量,增强表现好的层,抑制表现差的层
TransIFC Invariant Cues-Aware Feature Concentration Learning for Efficient Fine-Grained Bird Image Classification
IEEE Transactions on Multimedia (TMM) ,2023
- 找关键特征--->只要输出特征中区分度最大的前K个特征:计算每个特征之间的相似度,求和倒数,分数大说明区分度更大,不普通;分数小说明这个特征没有说明特色,不重要。
- 低层(包含更多细节)和高层(包含更多语义)的信息融合。
- 鸟类图像中的不变线索(除了眼睛鸟喙等还包括长距离语义关系,翅膀&鸟喙位置关系)和细微差异。
推荐
Sequential Recommendation
已知用户的、长期积累的、按时间顺序排列的完整行为序列,来预测该用户下一个可能感兴趣的项目。它旨在建模用户长期且稳定的个性化兴趣。
✍️Pattern-wise transparent sequential recommendation
IEEE TKDE,2025,Kun Ma; Cong Xu; Zeyuan Chen; Wei Zhang
保证性能同时提高可解释性:从单一项目解释(point-level)到多个连续项目组合(union-level)解释目标项目(提高精度,解释能力更强);使用概率嵌入(表达更丰富)的方式建模项目,再使用逻运算组合项目,保证项目组合内部的可解释性(每个物品的贡献值);没有联合集数据,加入权重偏执让自适应学习。
阐述一个简单模型,思路清晰,实验完整,可以学习写作方式
✍️❤️🎏Modeling dynamic item tendency bias in sequential recommendation with causal intervention
IEEE TKDE ,2024,Modeling dynamic item tendency bias in sequential recommendation with causal intervention
对于推荐序列提出了一种新偏差"动态项目倾向偏差",使用因果干预方法取出混杂干扰因素,并合理利用动态倾向中有利的部分
引言我很喜欢,可以模仿,适合“提出一个新问题并解决”这样的文章写作
以及rw,当前该方向有哪几类并展开解释,很标准感觉,适合仿写
图表解释
Preference-consistent knowledge distillation for recommender system
IEEE TKDE,2024,Zhangchi Zhu; Wei Zhang
加入两个正则化使学生模型和教师模型之间在投影前特征偏好一致
Session-based Recommendation
输入是用户在当前一次交互“会话”中的匿名行为序列。
短期性、实时性、匿名性、动态演化性
Explainable Session-based Recommendation via Path Reasoning
IEEE TKDE, 2024, Yang Cao; Shuo Shang; Jun Wang; Wei Zhang
可解释推荐、基于会话的推荐、分层强化学习(融合市面上方法的优点)、知识图谱(针对起点单一找多个起点);利用大模型api提取图像特征(额外信息)加入到训练中;
多个模块合并形成一个大的模块,如何进行实验(总体、消融、参数、解释)可参考这一篇
other
UNDERSTANDING GENERATIVE RECOMMENDATION WITH SEMANTIC IDS FROM A MODEL-SCALING VIEW
SID-based vs LLM-as-RS 从模型缩放角度:
- SID-based方法因为LLM嵌入提取到离散的SID中会丢弃大量的语义信息,所以会出现模型规模增大但性能却饱和无法提升的现象
- 证明其优越缩放属性LLM-as-RS,能在相同数据下提升性能高达20%,且证明了LLMs可以学CF,提出在资源充足的情况下这个方法更有前景
后面的补充实验很多,可以模仿实验
概念: scaling-law Collaborative Filtering
知识追踪
🎏Rebalancing Discriminative Responses for Knowledge Tracing
ACM TOIS,2025, Jiajun Cui; Hong Qian; Chanjin Zheng; Lu Wang; Mo Yu; Wei Zhang
不平衡的数据分布:关注题目中判别力更强的信息,例如简单题中答错的人,难题中答对的人
Improving the performance and explainability of knowledge tracing via markov blanket
IPM;Bo Jiang; Yuang Wei; Ting Zhang; Wei Zhang,2024
可解释性:相关性===>因果关系 (选择合适的输入特征);
对于知识追踪技术,提出了一种基于markov blanket和FGES框架的算法,提取出对目标参数的一个因果特征子集(MB)(有因果关系),将该自己输入到一些可解释性强的模型(LR、RF、DT)进行知识追踪。方法简单有效
实验数据分析和讨论(Discussion)部分写的好,可以参考
其他
[Understanding Adversarial Robustness from Feature Maps of Convolutional Layers](./202510/Understanding Adversarial Robustness from Feature Maps of Convolutional Layers)
IEEE TNNLS,Cong Xu; Wei Zhang; Jun Wang; Min Yang,2024
对于平均池化层,扩大其特征图尺寸(上采样、缩短步长)可以提到网络对抗鲁棒性。方法简单有效
实验设计完善(对比实验、展示方法优势),可以参考实验思路
Layer by Layer Uncovering Hidden Representations in Language Models
ICML, Oscar Skean 、Md Rifat Arefin、Dan Zhao 、 Niket Patel 、Jalal Naghiyev 、Yann LeCun 、Ravid Shwartz-Ziv, 2025.2
用一个统一框架矩阵熵(信息论、几何、不变性 )来证明中间层比最终层提供更有用的特征对于下游任务:中间层在信息压缩和噪声抑制方面找到了更好的平衡点,而最后一层可能会变得过于专业化于预训练目标
LiDAR视觉定位
LightLoc Learning Outdoor LiDAR Localization at Light Speed
cvpr2025, xmu
轻量化
- 多种不同场景训练一个主干网络,N个MLP,每个MLP对于一个场景,并行训练迫使主干网络学到通用的泛化特征。
- 很多样本相似,容易混淆,模型训练不易收敛:给模型特征加一个自己大概在某个位置先验条件。将样本聚类后重新定义标签,做一个简单的分类任务,得到一个条件概率,拼接到样本特征上。
- 样本中存在大量重复,有些样本模型反复学过,可以不要。计算epoch间一个滑动窗口内损失的方差,如果方差大说明模型预测不稳定,还要学;反之,不用学可以丢掉。方差降序筛选。
解释
🎏unfinished
❓ leave a question open
❤️ like
✍️ writing