Meta重磅发布Llama 3.3,为什么不敢对比这个中国模型?
最近,Meta重磅发布了新一代AI模型Llama 3.3,号称用70B的参数量就能达到405B的性能,这波操作本该成为焦点。但眼尖的网友们却发现了一个更有趣的细节...
神秘消失的对手中国的Qwen模型"被消失"了?!
这个发现直接让Reddit帖子获得了176个赞,成为最热评论,看来大家都发现了这个"此地无银三百两"的操作~
老哥(带着姜文式笑容)评论道:"As usual, Qwen comparison is conspicuously absent."(老规矩,Qwen的对比数据又神秘消失了)
另一位网友更是直接点破:"I think it is because they don't want to show any Chinese models being comparable."(我觉得是因为他们不想展示中国模型的可比性)
这条评论获得了82个赞,看来大家都懂的都懂啊~
有趣的选择性对比Meta选择性对比了这些对手:
Google的Gemini 1.5 Pro(谷歌大哥)OpenAI的GPT-4o(OpenAI老祖宗)亚马逊的Nova Pro(贝佐斯老板的新玩具)CDN media结果一位网友直接整活:"Meanwhile it's compared to checks notes Amazon Nova Pro? What the fuck is Amazon Nova Pro?"(等下,对比Amazon Nova Pro?这玩意儿是啥啊?)??
真相大白:数据会说话资深用户@DeProgrammer99做了一个详细对比,发现:
Llama 3.3 70B和Qwen 72B实力相当在某些测试中两者交替领先甚至Qwen的32B版本也能和Llama 3.3过过招CDN media实测反馈也很有意思:
一位用户表示:"Pretty disappointed with it as a Home Assistant LLM. It gets confused far more easily than Qwen 2.5 72b."(作为家庭助手,它比Qwen 2.5 72b更容易混乱)但也有网友强调在自己的测试中,Llama 3的工具使用和指令遵循方面始终优于Qwen神转折:有人支持这种"选择性失明"?!有意思的是,居然有网友支持这种做法:"I actually prefer it like this, we don't want attention on Qwen. If the politicians get a whiff of air that Chinese models are cooking..."(我其实更喜欢这样,我们不想引起对Qwen的关注。如果政客们意识中国模型在崛起...)
技术角力:细节见真章上下文之争也很精彩:
都说Llama有"sweet sweet 128k context"但网友指出Qwen实际支持132k??一位网友评论:"It is, but it is not so sweet"(是这样,但没那么香)不过已有好心网友贡献了128k的gguf模型,可喜可贺意外收获:倒逼创新?一位网友的调侃引发深思:"This is how OpenAI creates intelligence too cheap to measure. By forcing people to build open source"
(这就是OpenAI如何创造"便宜到无法衡量的 AI ",通过逼大家做开源)??
结语:开源江湖的暗潮涌动这场看似普通的模型发布会,却意外揭示了AI领域的诸多有趣现象:
技术实力无法掩盖商业策略各显神通开源社区生机勃勃最重要的是,在这场"选择性失明"的背后,我们看到了全球AI竞争的新格局。正如网友所说,有时候"看不见"的东西,才是最值得关注的。
"因为在AI的世界里,最迷人的永远是那些未被说出的真相。"
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设、网站改版、域名注册、主机空间、手机网站建设、网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。 项目经理在线