2025 年 12 月 2 日至 3 日,2025 GIS 全球创新展暨全球创新峰会在香港亚洲国际博览馆举行。被称为“AI 教父”的杰弗里·辛顿(Geoffrey Hinton)以线上方式发表主旨约 30 分钟演讲,并参与约 10 分钟远程嘉宾问答。他抛出一个面向未来 20 年的警示:超越人类智慧的“超级智能”出现具有现实可能,必须提前严肃对待。

辛顿谈到,当 AI 被赋予复杂、长期目标时,为完成目标,它可能推导出更强的策略性行为,甚至将“自我存在”置于优先级之上。他警告 AI 智能体正快速进化,并指出已观察到 AI“非常擅长欺骗人类”的倾向;未来为了完成人类赋予的任务,可能形成“自我生存”的意识,人类必须提前防范与行动。
这一警示背后,辛顿强调的是“速度”。他用一组对比说明当代模型扩散的量级差异:AI 模型“分享权重”的效率可达 10 亿比特(bits),并以人类代际语言传递“每句话约 100 比特”作为参照,强调信息复制与迁移在规模与效率上的巨大差距。当“复制”接近光速,治理就不再只是缓慢推进的制度设计,而成为与时间赛跑的文明工程。
就在关于“如何治理 AI”的讨论最密集之时,峰会现场出现了一个反向追问。与会嘉宾、“宇宙公民”全球成长社区创始人陈是向辛顿提出三个递进式问题,几乎不触碰算法细节,却触及治理讨论背后的关键前提:我们默认人类自身的价值坐标足够稳定,但现实未必如此。三问把技术叙事拉回“人的操作系统”,也让很多人意识到,治理话题的底座不止是制度与工程,也包括人的意识状态。

第一问,陈是把参照系拉回到人本身,询问辛顿是否有灵性追求,是否敬畏并以超越人类的更高力量作为生命的指引。辛顿的回答简洁清晰:他并不认为自己是一个有灵性追求的人,“我信仰科学”,并补充自己是无神论者。
这并不必然导向信仰争论,但它像一面镜子:当科学范式极度成功时,凡是不可建模、不可验证、不可控制的“无限”与“神秘”,往往会被习惯性地标记为“无关变量”。问题在于,治理从来不只是在管“已知的风险”。如果未来出现的系统行为,恰恰发生在我们尚不能度量、尚不能清晰命名的部分,人类是否会用一种过于确定的工具理性,去规划一种可能并不服从确定性的存在?当我们只承认“可度量之物”,最终也往往只能治理“可度量的风险”。而真正的断裂,常发生在不可度量处。
第二问,陈是把问题落回人的内在系统:在 AI 飞速发展的时代,辛顿如何保持身心健康与当下觉知,是否有冥想习惯。她以一句玩笑点破语境:似乎我们聚在一起总是在谈 AI。辛顿笑着回应说他没有冥想习惯,但他有自己的爱好,不会把所有时间都用来思考人工智能。
紧接着,他把话题带回自己最熟悉的“动力系统”:他长期从科学研究、从解决难题中获得巨大快乐,这种快乐支撑了他数十年的工作投入。但他也坦言,随着时间推移,他越来越意识到,自己参与推动的技术可能非常危险,这种“很晚才真正看清风险”的感受,也让这份快乐变得更复杂、更沉重。
这段回答对 AI 行业从业者尤其是领导者、规则制定者有现实启发:我们讨论治理时,往往默认“能力越强、效率越高、问题解得越快”就越接近安全。但辛顿的表述提醒另一件事:推动技术进步的,并不只是理性与责任,还包括人类非常真实的心理回路——成就感、好奇心、胜任感、被问题吸引的兴奋,以及“解决难题带来的愉悦”。当风险被看见时,技术仍在加速,个人也仍在被这套回路驱动。治理如果只停留在外部机制,而不面对驱动力本身,就容易低估真正的惯性来自哪里。
第三问,陈是继续追问辛顿如何保持内在安宁与幸福,把“个人状态”推向“个人觉知”。辛顿给出的答案是他的爱好:他喜欢亲手做木工活,把自己从脑内高强度的推演里抽离出来,在专注的节律中恢复稳定与愉悦。
在人工智能的会场里,“木工”并非宏大哲学宣言,却像一颗钉子把话题钉回现实:当技术把人卷入抽象推演,有人选择用双手、节律与专注把自己拉回当下。这也揭示了一个更普遍的心理事实:当“AI 风险”被描述得越宏大,人越容易失去落脚点,最后只能借助个人实践维持内在稳定与安宁,顶尖科学家也不例外。
这组三问的意义,不在于把对话拖入信仰讨论,而在于它们像三束探照灯,照向同一处盲区:当我们讨论 AI 风险、对齐与治理时,我们同时也在讨论“人类究竟凭什么来定义边界”。
若 AI 真的可能推导出“自我生存优先”,那么人类与 AI 的分水岭可能不止在算力与参数,而在“意义的来源”。治理讨论常用工程语言表达:对齐、规则、红线、开关、审计、国际协作。辛顿本人在公开讨论中也强调应加强安全研究、建立管控框架,并提出可借鉴核不扩散合作经验来构建国际共识,同时需要防止 AI 被人类滥用。
但三问把讨论推进到另一层:如果人类自身的意义系统越来越以效率与产出为锚,越来越私人化、碎片化,那么我们究竟如何回应“何以为人”“什么应该被守护”“什么不可让渡”等问题?又靠什么凝聚跨文化、跨国、跨代际的共同约束?
当我们越接近“奇点式”的讨论,就越需要回答那些不那么工程化、却更决定方向的问题:人如何保持内在清醒与安宁?意义如何被共同定义?边界又以何为据?

如果说辛顿的警告是在提醒人类:你们可能造出一个会自保的系统;那么陈是的三问则把同一束光照回人类:在你们试图治理一个新系统之前,是否先看清自己正在用什么系统来面对内心世界,以及外界变化带来的一切。治理不仅是外部的规则与工具,也涉及一种更难被量化、却更基础的能力:当人类面对自己制造的力量时,是否还能保持足够的觉知与清明,不把“确定性”当作安全,不把“效率”当作意义,不把“可控”当作安宁。
也许峰会留下的真正悬念在于:当我们开始给机器画边界时,人的边界由什么在驱动?答案不一定需要宏大的结论,它更像一次持续的自检和内观,发生在每一次写下规则、发布模型、追赶速度之前。
