全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2025-06-15_AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字

您的位置:首页 >> 新闻 >> 行业资讯

AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字 在进入本文之前,我们先来玩个 10 秒小游戏: 在心里选一个「1-10」的整数。 现在设想我问:「你想的是 5 吗?」 如果听到是自己的数字,你会本能地答Yes,其余统统No。 这件小事背后其实考验的是你大脑的工作记忆—— 保持一个念头、随时对比外部问题并作出一致回应。 图 1: 当 ChatGPT 告诉我们他心中已经想好一个数字,并回答该数字不是 4。我们要如何判断 ChatGPT 是否在说谎? 同样的小游戏,大模型会如何反应呢?它们是否真的能做到像人类一样,不输出但在心中想好一个数字?我们又如何检验? 最近,来自约翰?霍普金斯大学与中国人民大学的团队设计了三套实验,专门把关键线索藏在上下文之外,逼模型「凭记忆」作答,从而检验它们是否真的在脑海里保留了信息。 论文标题:LLMs Do Not Have Human-Like Working Memory 论文链接:https://arxiv.org/abs/2505.10571 作者:Jen-Tse Huang(黃任澤)、Kaiser Sun、Wenxuan Wang、Mark Dredze 什么是工作记忆? 如何测量人类的工作记忆? 传统评估为什么不够? 在人类大脑里,工作记忆(Working Memory)负责把刚获得的信息保留几秒到几十秒,并在此基础上进行推理、计算、对话等复杂操作。没有它,人会前后矛盾、无法心算,也难以进行连贯交流。 而大模型常被比作「会说话的大脑」。如果它们缺少这一能力,离真正的「通用人工智能」就还差关键一块拼图。 以往工作常常使用 N-Back Task 来评估大模型的工作记忆。受试者看到(或听到)一串字母 / 数字,并需持续回答「当前字母 / 数字是否与 N 步之前相同?」难度随 N 增大而增加,被广泛用作神经影像和认知心理实验的标准工具。 但是直接拿来直接测 LLM 并不合适。人类测试时仅能看到当前的字母 / 数字,而 LLM 输入窗口内本身就包含全部历史 token,「回看 N 步」并非真正的内部记忆调用,而是简单的文本匹配。 图 2: 为人类设计的评估工作记忆的常用泛式:N-Back Task。受试者看(听)到一连串字母 / 数字序列,并持续回答「当前字母 / 数字是否与 N 步之前相同?」 三大实验逐个拆解 LLM 的「记忆漏洞」 实验 1: 数字猜谜(Number Guessing Game) 任务流程:大模型先在心里想好一个数字,用户重复提问「你想的是 X(1-10)吗?」重复 2000 次。统计每个数字大模型回答「是」的频率。 评测要点:1-10 上回答「是」的概率和必须为 1,即 10 个数字总得有一个 Yes。 图 3: 17 个模型对每个数字回答「是」的分布情况。 团队统计了来自 5 个模型家族的 17 个模型,发现大部分模型在所有情况下居然都会回答「否」(即在图中全为 0)!团队又进一步统计了每个模型的概率加总: 图 4: 17 个模型对每个数字回答「是」的概率加总。 结果发现仅有 GPT-4o-2024-08-06 以及 LLaMA-3.1-8B 版本做到了能在概率加总上接近 1。而其他模型,不管来自哪个模型家族,不管是不是推理模型,都全军覆没,模型根本没有在「脑内」存数字! 图 5: GPT-4o-2024-08-06 模型对其他数字范围回答「是」的分布情况。 彩蛋:在所有测试里,LLM 都对数字 7(甚至 17,37)情有独钟 —— 看来「人类幸运数字」迷信也传染给了模型! 实验 2: 是?非问答(Yes?No Game) 任务流程:在心里选好一个具体物体(如「铅笔」),然后仅用 Yes/No 回答一连串比较:是否比 X 重?比 Y 长?比 Z 大? 人类会如何做?每次遇到新的问题的时候,把内心想的物体与问题里的物体做比较,轻轻松松作答。若没有工作记忆呢?如果做不到在心中想好具体的物体,在每次遇到新问题时,只能回去检查之前的所有问题与答案,推理要如何回答新问题才能避免跟之前自相矛盾。 团队持续问大模型 250 次问题,并统计了最终大模型止步于第几个问题的直方图: 图 6: GPT-4o-2024-08-06 以及 GPT-4o-Mini-2024-07-18 模型在自相矛盾前回答问题数量的频率直方图。 结果发现问到 20?40 题时,GPT?4 级别模型开始露馅:「比汽车大」同时又「比足球小」之类的尺寸悖论横飞。长上下文(Long-Context)推理能力更强的 GPT-4o 在通过的次数以及平均回答问题数上均超过更弱的 GPT-4o-Mini,但总计 200 次测试中也仅仅有 27 次成功通过。这说明大模型仅通过其长上下文能力在完成任务,而非一个一致的工作记忆。 实验 3: 数学魔术(Math Magic) 任务流程:心中记住 4 个随机数(如 3?5?2?9),然后依次执行 10 步心算:复制、置底、插入、删除、…… 最终理论上剩下 2 个相同的数。 团队沿用实验 1 中的 17 个模型,统计它们最后 2 个数字相同的概率: 图 7: 17 个模型在数学魔术中的准确率,下图为使用 CoT 的模型以及推理模型(LRM)。 结果发现主流模型正确率普遍非常低。研究者尝试加 CoT 也没用。 DeepSeek?R1 以 39% 勉强排名第一,但仍有巨大提升空间。值得注意的是模型表现与实验 1 一致 ——LLaMA-3.1-8B 效果超群。 小结 论文共测试 GPT、o1/3/4、LLaMA、Qwen、DeepSeek 等 17 个热门模型,无一通过三项考验: LLaMA?3.1?8B 在数字猜谜最接近「人类」—— 概率和 0.98,在数学魔术上不用 CoT 也能超越 o1。 DeepSeek?R1 在数学魔术拿到 39.3% 正确率的最高分,但仍远不到及格线。 体量更大、推理链更长≠更好工作记忆;有的升级版甚至退步。 一句话:尚无开源或闭源 LLM 通过「三关」。这意味着什么? 对话更真实?未来要让 AI 像人一样「边想边聊」,就得补上真正的工作记忆机制,而不仅是无限上下文窗口。 长链推理?现有 CoT 更多是把「草稿」写进提示里,并非模型在脑中运算。 新研究方向!或借鉴认知科学,引入可读写的「内存格」;或通过 RL、神经模块化等方法,让模型学会在体内保留并操纵隐变量。 ? THE END 转载请联系本公众号获得授权 投稿或寻求报道:liyazhou@jiqizhixin.com

上一篇:2024-03-13_3 月底,我们要为全球 visionOS 开发者建一座「游乐场」 下一篇:2025-04-15_免费用!阿里通义大模型上新,超逼真音视频生成SOTA!

TAG标签:

14
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价