关注
Seungjoon Park
Seungjoon Park
Twelve Labs
在 twelvelabs.io 的电子邮件经过验证
标题
引用次数
引用次数
年份
Revisiting Intermediate Layer Distillation for Compressing Language Models: An Overfitting Perspective
J Ko, S Park, M Jeong, S Hong, E Ahn, DS Chang, SY Yun
arXiv preprint arXiv:2302.01530, 2023
32023
NASH: A Simple Unified Framework of Structured Pruning for Accelerating Encoder-Decoder Language Models
J Ko, S Park, Y Kim, S Ahn, DS Chang, E Ahn, SY Yun
arXiv preprint arXiv:2310.10054, 2023
12023
系统目前无法执行此操作,请稍后再试。
文章 1–2