昆仑万维开源2千亿稀疏大模型Skywork-MoE
本报讯 (记者李乔宇)6月3日,昆仑万维宣布开源2千亿稀疏大模型Skywork-MoE。Skywork-MoE基于之前昆仑万维开源的Skywork-13B模型中间checkpoint扩展而来,是首个完整将MoE Upcycling技术应用并落地的开源千亿MoE大模型,也是首个支持用单台4090服务器推理的开源千亿MoE大模型。
昆仑万维方面表示,希望此次开源的Skywork-MoE模型、技术报告和相关的实验结果可以给开源社区贡献更多的MoE训练经验和Know-how,包括模型结构、超参选择、训练技巧、训练推理加速等方面,探索用更低的训练推理成本训练更大更强的模型,在通往AGI的道路上贡献一点力量。
(编辑 王江浩)