23:33
27d ago
PolarQuant:用 Hadamard 旋转实现 LLM 权重高斯量化压缩
PolarQuant 提出三阶段后训练权重量化,在无校准数据条件下把 Qwen3.5-9B 的困惑度从 absmax Q5 的 6.90 降到 6.40,仅比 FP16 高 0.03。方法包含分块归一化、Walsh-Hadamard 旋转、高斯匹配质心量化;消融称 Hadamard 旋转贡献 98% 质量提升。真正值得盯的是它还能给 INT4 做预处理:接 torchao 后困惑度 6.56,对比直接 absmax INT4 的 6.68,吞吐 43.1 tok/s,显存 6.5 GB。
43
SCORE
H0·K1·R0