本期精华汇总:
- DuoGuard: A Two-Player RL-Driven Framework for Multilingual LLM Guardrails
提出了 DuoGuard 双玩家强化学习框架,通过对抗生成合成数据,提升多语言 LLM 防护模型的性能和效率。
小模型 (0.5B) 性能超越大模型 (LlamaGuard3 8B),推理速度提升 4.5 倍。
强调数据质量的重要性,为解决多语言安全数据稀缺问题提供新思路。 - Training Language Models to Reason Efficiently
提出基于强化学习的高效推理训练方法,通过长度惩罚引导模型减少不必要计算。
在数学推理任务上显著降低推理成本 (token 数量减少 16%-50%),准确率几乎不受影响。
揭示大型推理模型可能存在 “过度思考” 现象,高效推理是未来发展方向。 - Sparse Autoencoders for Hypothesis Generation
提出 HYPOTHESAES 框架,结合稀疏自编码器 (SAE) 和大型语言模型 (LLM) 自动生成可解释的假设。
计算效率比现有方法提高 1-2 个数量级,能发现更多新颖假设。
为深度学习模型可解释化和自动化科学发现提供新路径。 - On the Difficulty of Constructing a Robust and Publicly-Detectable Watermark
理论证明鲁棒且公开可检测水印方案的存在性,但实际构建面临巨大挑战。
当前图像嵌入模型在白盒对抗攻击下脆弱性是主要瓶颈。
强调提升深度学习模型对抗鲁棒性是实现安全可信内容溯源的关键。 - Scaling up Test-Time Compute with Latent Reasoning: A Recurrent Depth Approach
提出循环深度语言模型 Huginn,通过循环迭代在潜在空间中进行推理,扩展测试时计算量。
在推理任务上性能媲美更大规模模型,并具有更高的计算效率和灵活性。
为语言模型设计和推理能力提升开辟新方向。
完整推介:https://mp.weixin.qq.com/s/kq7zRO8LLgkUo9DJhH08eQ