Daily Papers - 2026-04-14


This daily digest collects the top 10 papers from the Hugging Face papers feed for 2026-04-14.

Browse the daily feed

1. QuanBench+: A Unified Multi-Framework Benchmark for LLM-Based Quantum Code Generation

Read the paper

QuanBench+ 使用功能性测试和基于修复的反馈,在多个框架上评估大型语言模型在量子代码生成方面的能力,揭示了显著的进步,但也存在对特定框架知识的持续依赖。

2. The Past Is Not Past: Memory-Enhanced Dynamic Reward Shaping

Read the paper

MEDS 是一个增强记忆的动态奖励塑形框架,通过聚类历史行为信号来识别和惩罚重复的错误模式,从而提高了大型语言模型在强化学习中的采样多样性。

3. OmniShow: Unifying Multimodal Conditions for Human-Object Interaction Video Generation

Read the paper

OmniShow 是一个用于人-物交互视频生成的一端到端框架,通过统一的条件和注意力机制有效地整合了多种模态,并通过解耦的训练策略解决了数据稀缺问题。

4. Attention Sink in Transformers: A Survey on Utilization, Interpretation, and Mitigation

Read the paper

Transformer 模型面临“注意力汇聚”(Attention Sink)现象的挑战,即过多的注意力集中在无信息量的 token 上,影响了可解释性和性能,因此需要一个全面的研究调查,涵盖其基本用法、机制理解和策略性缓解方法。

5. Strips as Tokens: Artist Mesh Generation with Native UV Segmentation

Read the paper

SATO 提出了一种新颖的 token 排序策略,用于自回归 Transformer 模型,通过基于三角形条带的序列,在网格生成中保留了边缘流和语义布局。

6. Uni-ViGU: Towards Unified Video Generation and Understanding via A Diffusion-Based Video Generator

Read the paper

Uni-ViGU 通过一个基于扩散模型的视频生成器,提出了一种以生成为中心的方法来实现统一的多模态视频理解和生成,通过统一的流匹配和双向训练机制将视频生成作为基础进行扩展。

7. Pseudo-Unification: Entropy Probing Reveals Divergent Information Patterns in Unified Multimodal Models

Read the paper

统一的多模态模型由于不对称的编码和分离的响应模式而遭受“伪统一”(Pseudo-Unification)的影响,需要一致的信息流来实现真正意义上的多模态协同。

8. CodeTracer: Towards Traceable Agent States

Read the paper

CodeTracer 是一种追踪架构,通过重构状态转换和定位复杂多阶段工作流中的失败,来分析代码代理的执行。

9. CocoaBench: Evaluating Unified Digital Agents in the Wild

Read the paper

CocoaBench 是一个新基准,用于评估统一数字代理在需要视觉、搜索和编码集成的复杂、多能力任务中的实际表现,揭示了当前代理系统在改进方面仍有很大空间。

10. Tracing the Roots: A Multi-Agent Framework for Uncovering Data Lineage in Post-Training LLMs

Read the paper

“Tracing the Roots”框架通过多智能体分析,揭示了大型语言模型(LLM)数据集演化过程中的结构模式和系统性问题,并通过面向 lineage 的采样方法实现了更多样化和可控的数据策展。