你以为在追 AI,其实你落下的是思考力——诺奖得主 Hinton 的提醒,刺痛所有人
以下文章来源于 AI 深度研究员 ,作者 AI 深度研究员

作者 | AI 深度研究员
来源 | AI 深度研究员 管理智慧 AI+
咨询合作 | 13699120588
文章仅代表作者本人观点
(视频:诺奖得主 Geoffrey Hinton 在多伦多大学本科新生讲座)
你以为自己一直在追 AI,
用工具、看教程、尝试各种新功能。
你是不是也想过:
" 只要跟上它的节奏,就不会被落下。"
可你有没有真正问过自己——
" 我到底理解它在做什么吗?"
你在生成回答,却没再追问:" 为什么是这个答案?"
你在执行指令,却忽略了另一个问题:" 我是在用它,还是被它用?"
昨天,在多伦多大学的一场本科新生讲座上,
AI 教父、诺奖得主 Geoffrey Hinton,对一群大学生说出:
" 你以为是 AI 在进化迭代,
其实是人类还没学会思考。"
这不是一句哲学空谈,
而是一场现实警告:
如果你不重新理解 " 思考 ",
你就无法真正理解 AI,更别说用好它。
AI 越来越强?别被假 " 理解 " 骗了
1、你以为 AI 已经会思考了,对吧?
Claude 的类人对话、GPT 的多轮记忆、DeepSeek 的系统集成……
这一切让人误以为:AI 已经很接近人类智能了。
但在多伦多大学的讲座上,Hinton 提出一个更根本的问题:
" 你真的理解过,‘思考’到底是什么吗?"
所有人都在追 AI,,
可我们是不是反而忘了,先重新理解我们自己的‘理解’?
Hinton 并不否认 AI 的加速。他说:
"AI 正在接近我几十年前的愿景。"
紧接着他补充:
" 问题是,我们自己到现在都还不清楚——什么才是思维。’ "
这不是他在自谦,而是他研究五十年后的判断:
人类对 " 智能 " 的想象,长期被逻辑主义所误导。
2、思考,不是推理,而是 " 发现别人可能搞错了 "
他讲了一个真实的小实验:
在他年轻时做心理学研究时,
他观察 3 到 5 岁的孩子分辨不同形状和颜色。
有一组样本中,出现了红色圆形、黄色圆形、黄色正方形。
一个聪明的五岁孩子没有选择哪个 " 不同 ",而是指出:
" 你把那个圆形涂错颜色了。"
这句话震住了他。
他不是答题,而是在理解规则后,反过来质疑规则本身。
这,是 " 思考 " 真正开始的地方。
Hinton 总结说:
" 我们现在的 AI,可以学会回答问题。
但它还不能发现问题,更不能指出人类可能搞错了。"
它能预测语言,却不懂语言的歧义;
它能模仿思维,却无法质疑前提。
它看起来像在思考,其实只是套用了格式。
3 、人不是逻辑动物,而是 " 类比动物 "
Hinton 说:
" 我们不是逻辑动物,而是类比动物。"
你不是通过一套规则思考,
而是通过一连串模糊的经验、感受、相似性进行判断。
这正是人类思维的复杂之处——
不是算法逻辑,而是一种模糊而动态的类比直觉。
我们可能在 AI 身上看见 " 人 ",但它不懂 " 人 "
他提醒学生:" 你们从中学一路走来,被教会了如何写出‘正确答案’。但在真正复杂的世界里,发现问题,比回答问题更重要。"
这句话,不只是说给台下的新生。
是说给所有还在‘答题’的人类社会。"

Hinton 50 年只追一个问题
1、不是学霸人生,而是一连串 " 乱选 " 后的执念
很多人以为,像 Hinton 这样的科学家,一定是少年天才、一路开挂。
其实恰好相反。
他说,自己刚进剑桥,第一次离开家,才发现:自己并不比别人聪明。
" 一个月后我就退学了。"
他做过零工,申请过建筑专业。
第二天又变卦,回去读了科学。
后来像走马灯一样换专业:生理学、哲学、心理学……
听起来像是在逃避,其实他一直在找答案。
本科时他学物理还不错,但数学太复杂。
他干脆说:" 我永远成不了物理学家。"
他喜欢生理学,但夏季课程讲神经系统的时候让他失望:" 他们只讲了冲动是怎么传导的,但没讲它是怎么‘工作的’。"
他去哲学、心理学里找答案,一个太空,一个太浅,都没碰到‘思维的核心’。
直到多年后他才明白:
" 如果你真的想理解思维,你必须理解大脑是如何工作的。 光靠哲学、心理学、逻辑,是不够的。"
2、" 混乱 " 的路线,反而是他成为诺奖得主的根基
Hinton 对在场学生说:
" 我走了一条混乱的路,但回头看,每个学科都在为后来打底。"
哲学让他质疑 " 理性 " 的本质,
心理学让他接触实验方法,
生理学则建立了他对神经结构的直觉。
后来进入人工智能领域,他才开始真正 " 搭建思维的机器 "。
这也印证了他今天最想告诉年轻人的一句话:
" 比起‘你学什么’,更重要的是‘你想弄明白什么’。"
3、他不是追着趋势跑,而是盯着一个问题,跑了 50 年
他说:"" 我之所以做人工智能,是因为我相信——我们能在电脑里,模拟出‘小型思维’。"
不是因为 "AI 是风口 ",
更不是因为 " 这个专业有前景 ",
这些话,在今天这个所有人都在选 " 热门专业 "、追 " 未来方向 " 的时代里, 反而显得格格不入。
但你如果回头看——
今天的热门方向,几乎全都是那些当年被嘲讽 " 冷门 " 的人,长期沉进去、默默打磨几十年打下的基础。
讲座临近尾声,他讲了一句很轻的话:
" 我当过木匠,做过实验失败,也曾放弃学术。但我一直没放弃 " 人类是怎么思考的 " 这个问题。"
他提醒学生:路径可以混乱,但动机要清晰。
你可以换专业,可以失败,可以走弯路,但你要问自己:
" 有没有一个问题,是你愿意花五十年去追的?"

AI 很会预测,但不懂 " 理解 "
1、" 理解 " 不是预测下一句话,而是知道你在说什么
现在的 AI 模型表现得越来越 " 聪明 "。
它能写新闻、画图、生成策略文案,
甚至能在医学考试、法律分析、逻辑测试中超越人类平均分数。
但在 Hinton 看来,这并不意味着它 " 理解了 " 世界。
"AI 所做的,不过是预测下一个词——
它不理解你在说什么,只是在拟合你会说什么。"
他说,它会接话,也能模仿人类的语气、节奏、态度,
让你觉得它好像真的在 " 懂你 "。
但当你问它:" 你为什么这么回答?"
它却根本答不上来。
你以为它是逻辑清晰的 " 答题者 ",结果它连自己为什么答这题都不知道。
2、预测 ≠ 理解,模仿 ≠ 思维
Hinton 强调,预测是一种表层行为,
但 " 理解 " 必须包含一个更复杂的结构:
它必须能整合上下文、指向现实、具备解释力。
他说:" 它会写诗,却不懂孤独;能编对白,却从未爱过谁。"
这不是浪漫主义的批评,而是技术路线上的提醒:
" 我们造出了看懂世界表面的系统,却还没造出能解释世界的系统。"
人类的理解力,是从 " 解释差异 " 开始的。
什么意思?
真正的理解,是从能解释‘例外’开始的。
他举了一个简单例子:
为什么我们能理解 " 他伤心地笑了 " 这种矛盾短语?
为什么我们能通过语气、上下文、过去的经验,来判断这是一种 " 讽刺 " 或 " 防御性 " 笑?
因为我们的大脑是不断在构建一个 " 世界模型 ":
包含模糊的经验片段
包含情绪的重量、语境的厚度
包含你对自己过去判断的修正能力
Hinton 说,这种东西,是当前的 AI 暂时没有的。
"AI 没见过世界,也从未经历误解、失败、修正——
它只是在生成‘像理解的回答’。"
3、理解的本质,是 " 元认知 " 而不是 " 精度 "
Hinton 特别强调:
我们要追求的 AI,
不是更精准的模仿者,
而是能反思、能质疑前提、能与人类一起重新定义问题的系统。
这类智能目前还很原始,也不是主流方向。
因为它慢、难、看起来 " 不炫技 "。
但 Hinton 反复提醒:
" 我们要构建的,是能共存的智能,不是能夺权的智能。"
现在大多数人谈 AGI:
"AI 是否能像人一样完成工作?"
但 Hinton 的提问方式是:
" 你是否真的理解‘人是怎么完成工作的’?"
这不是一个哲学问题,而是一个工程入口问题。
如果你连 " 人类理解 " 是如何形成的都不知道,
那你训练出的模型,很可能只是一个幻象——
它会说话,却不知道自己在说什么;
它看起来理性,其实连规则从哪儿来的都没搞明白。
" 不是 AI 不聪明,而是我们太急着定义‘聪明’了。"

不是专业贬值,是你太快放弃了 " 困惑权 "
1、焦虑背后,是 " 人类价值 " 的错位
你焦虑的,不只是 " 大学专业选得对不对 ",
而是越来越不确定:" 人类的价值,还剩下什么?"
当 AI 能改稿、配图、自动列提纲,
连学校开设的新专业,也清一色投向了数据、算法和自动化。
你开始怀疑:
" 我会的东西,真的还有价值吗?"
教育部增设的新专业,几乎全部跟人工智能相关。
官方的信号已经很明确了:
未来的人才,最好既能读懂机器,也能被机器读懂。
与此同时,
在多伦多大学的讲座上,Hinton 表达出了一句更具穿透力的话:
" 如果你没有一个真正感兴趣的问题,选什么专业都没意义。"
这不是在唱高调,
而是在提醒我们:
真正被 AI 拿走的,不是 " 技能 ",而是 " 主动思考的机会 "。
他不是一开始就知道自己要做 AI,也不是一路顺风
——只是没那么快放弃那个让他困惑几十年的问题。
2、文科的 " 无用 ",恰恰是它的价值所在
今天很多人指责 " 文科没用 ",是因为它不直接 " 产出 ":
它不造芯片、不跑模型、不写算法。
但它能提问、能命名、能反问本身——这些,AI 还远远做不到。
你以为理解文学、哲学、历史是没用的,
但 GPT 的幻觉(hallucination),本质上是它无法理解语境、权力、讽刺这些结构。
你以为 AI 写稿子比你快,
但它还分不清:
哪句话会伤人,哪张图是压迫,哪个词会引发共鸣。
这些,就是文科教育本该训练的东西, 也是 " 深度人类性 " 的一部分。
讲座中,Hinton 反复提醒学生:
" 你越年轻,就越有时间允许自己失败。"
但今天的年轻人,
越来越没有犯错的空间, 没有 " 纯粹探索 " 的勇气。
不是因为他们懒,而是社会在反复训练你:
" 这有用吗?"
" 这能挣钱吗?"
" 这能防止我失业吗?"
而 Hinton 的整个人生主张恰恰相反:
" 你要先想清楚,什么问题让你着迷,其他的才有意义。"
你不是没用,而是太早被迫成为执行者。
你不是工具人,
你只是太早放弃了‘当思考者’的机会。
3、不是为文科辩护,而是为 " 人类余地 " 留出一块地
你可以不学哲学,
但你得能提出哲学式的问题。
你可以不写小说,
但你得能感知人类故事的复杂结构。
未来的 AI 会越来越强, 但越强,它越像一面镜子:照见人类自己,丢掉了什么。
人类的优势,是会问 " 为什么 "
1、你焦虑的是 AI,其实更该怕的是 " 认知自动驾驶 "
在讲座问答环节中,有学生问 Hinton:
" 你怎么看 AI 对未来职业的影响?"
面对学生关于‘未来职业’的问题,Hinton 没有直接回答,
他讲了一个自己年轻时的经历:
20 世纪 70 年代,他曾短暂离开学术,成为一名木匠。他说:
" 那时候我真的以为,学术这条路走不通了。"
但后来他遇到一位真正的木匠,对方手艺比他好得多。
他突然意识到:
" 也许我该回去搞研究。相比之下,做学术还容易点。"
这不是转行的插曲,而是他想提醒我们:
" 人类最大的问题,从来不是技术,而是我们太容易放弃思考。"
Hinton 提到,大多数人把 AI 看成是外部威胁——
怕它太聪明、太快、太卷。
但他反问学生:
" 你有没有意识到,你每天的很多决定,
都是在没有真正思考的情况下做出来的?"
我们做选择,不是出于兴趣,而是出于‘证明有用’:
选标题只看吸引眼球,选专业只看好不好就业,学技能也只看能不能变现。
不是 AI 在接管世界,而是我们早就把主导权交了出去。
2、诺奖,不是因为聪明,而是他没换问题
Hinton 并不是一开始就决定做人工智能,
也不是一路开挂的 " 少年天才 "。
他说,自己数学一般,人生转了不少弯。
" 我想弄明白,大脑是怎么工作的。"
不是他规划得比别人好,
而是他没换掉那个让他困惑几十年的问题。
这跟今天很多人的路径焦虑正好相反。
我们太习惯 " 规划路径 ",
却很少认真问自己:
" 我想弄清楚什么?"
就算没有目标,也别急着丢掉那个让你困惑的问题。
3、AI 越像人类,人类却越不像自己
AI 不停在进化,;
而我们人类却越来越习惯不提问。
Hinton 没有贬低 AI,但他表示:
" 我们要做的不是把 AI 变得更像人,
而是该回头问自己:我们还像人吗?"
在讲座中,他回想起一件童年小事。
他说自己五岁时,
看到一枚硬币在车座上 " 逆坡滚动 ",他非常困惑,以为看到了魔法。
多年后他才知道,那不是魔法,而是物理——
是座位上的纤维配合震动,制造了一个 " 单向推进 " 的摩擦。
然后他说了一句话:
" 重要的,不是能不能解决问题,而是有没有那个让你停下来的困惑。"
未来,不是 AI 把我们变傻了,
而是我们太早,就学会跳过了 " 为什么 "。

别再说 AI 在进化,是你没开始思考
AI 会生成画面,写下对白,编出浪漫。
但它越像人,越让我们意识到:
我们,好像越来越不像人。
但 Hinton 说:
" 你以为是 AI 在进化,
我们太习惯让模型给出答案,
却很少问一句:这真的是理解吗?
他不是在唱衰技术,
而是在提醒:
不是你会不会用 AI,
而是你用它,是在省事,还是在思考?
未来,不是靠执行命令的人留下,
而是那些能用 AI 反思世界、修正思维的人留下。
这不是一个关于 AI 的时代,
这是逼你重新成为‘思考的人’的时代。
~~~
下次你用 AI,别只生成答案,
问一句:" 我为什么要这么问?"
留下的,不是最快的人,
而是那些还在追问的人。
留言告诉我们:
你有没有那个,愿意追十年都不放手的问题?
参考资料:https://www.youtube.com/watch?v=vpUXI9wmKLc&t=3309s&ab_channel=UniversityofToronto
来源:官方媒体 / 网络新闻