冲上热搜!美团首个开源大模型来了!5600亿参数,推理速度比DeepSeek-V3快50%
9月1日,美团发布了其首款开源大模型LongCat-Flash,这是一款拥有5600亿个总参数的MoE(混合专家)模型。实现了每秒超过100个token的推理速度,理论每token输出时间相比DeepSeek-V3降低近50%。这个模型来自美团的 LongCat-Flash 系列,官网可以直接使用(https://longcat.ai)。
它天然知道「not all tokens are equal」,因此会根据重要性为重要 token 分配动态计算预算。这让它在仅激活少量参数的前提下,性能就能并肩当下领先的开源模型。
图源:知乎网友 @小小将。
LongCat-Flash目前暂时不支持文件、图像等多模态内容的上传。网页端内,提供了联网搜索功能,但深度思考功能显示为“敬请期待”的状态。根据美团龙猫团队分享的技术报告,LongCat-Flash采用了创新的MoE架构,引入零计算专家,减少了在低难度token上浪费的计算资源,从而提升推理效率。与DeepSeek-V3.1、Kimi-K2、Qwen3 MoE-2507等头部开源模型相比,LongCat-Flash在通用领域、编程等场景的能力还有一定差距,但在Agentic工具调用、指令遵循等场景中,LongCat-Flash达到了开源模型SOTA的水准。Hugging Face地址:huggingface.co/meituan-longcatGitHub地址:github.com/meituan-longcat/LongCat-Flash-Chat技术报告链接:github.com/meituan-longcat/LongCat-Flash-Chat/blob/main/tech_report.pdf网页版:longcat.ai/推荐阅读
MIT新晋副教授何恺明《计算机视觉进展》课程,附Slides与资料下载
西电IEEE Fellow团队出品!最新《Transformer视觉表征学习全面综述》如何做好科研?这份《科研阅读、写作与报告》PPT,手把手教你做科研奖金675万!3位科学家,斩获“中国诺贝尔奖”!最新 2022「深度学习视觉注意力 」研究概述,包括50种注意力机制和方法!【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载!2021李宏毅老师最新40节机器学习课程!附课件+视频资料
欢迎大家加入DLer-大模型技术交流群!
??长按识别,邀请您进群!
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设、网站改版、域名注册、主机空间、手机网站建设、网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。 项目经理在线