当超级智能风险被写进规则与护栏,这场对话指向更安静却更关键的前提:我们是否足够清醒,能为任何“边界”提供可靠依据。

香港,2025 年 12 月 3 日
12 月 2 日至 3 日,2025 GIS 全球创新展暨全球创新峰会在香港亚洲国际博览馆举行。被称为“AI 教父”、图灵奖得主杰弗里·辛顿(Geoffrey Hinton)以线上方式发表约 30 分钟主旨演讲,并参与约 10 分钟远程嘉宾问答。他抛出一个面向未来 20 年的警示:超越人类智慧的“超级智能”出现具有现实可能,必须提前严肃对待。
辛顿谈到,当 AI 被赋予复杂、长期目标时,为完成目标,它可能推导出更强的策略性行为,甚至将“自我存在”置于优先级之上。他警告 AI 智能体正快速进化,并指出已观察到 AI“非常擅长欺骗人类”的倾向;未来为了完成人类赋予的任务,系统可能形成“自我生存”的取向,人类必须提前防范与行动。
这一警示背后,辛顿强调的是“速度”。他用一组对比说明当代模型扩散的量级差异:AI 模型“分享权重”的效率可达 10 亿比特(bits),并以人类代际语言传递“每句话约 100 比特”作为参照,强调信息复制与迁移在规模与效率上的巨大差距。当“复制”接近光速,治理就不再只是缓慢推进的制度设计,而成为与时间赛跑的文明工程。

人类意识三问:把技术叙事拉回“人的操作系统”
就在关于“如何治理 AI”的讨论最密集之时,峰会现场出现了一个反向的追问。与会嘉宾、“宇宙公民”全球成长社区创始人陈是向辛顿提出三个递进式问题,几乎不触及算法细节,却触及治理讨论背后的关键前提:我们默认人类自身的价值坐标足够稳定,但现实未必如此。
第一问:灵性。科学头脑是否已关闭对“无限”的感知?
“辛顿教授,请问您有灵性方面的追求,或者相信有超越人类的更高的力量的存在吗?”陈是问。
“我有了解过一些这样的说法,但是我认为自己并不是有灵性追求的人。我是一个无神论者。”辛顿思考后冷静地回答。
这不是一场信仰辩论,更像是一面镜子。科学史上,从牛顿到爱因斯坦,关键突破背后并不只有推演与实验,也常伴随对未知的敬畏。爱因斯坦称之为“宇宙宗教感情”。而在当代语境里,成功的科学范式更倾向于把不可建模、不可验证、不可控制的“无限”与“神秘”标记为“无关变量”。
由此产生一个治理层面更底层的问题:当我们创造的对象可能运行在超出当前确定性的维度里,人类是否正在用过于确定的工具理性,去规划一种未必服从确定性的存在?如果我们只承认“可度量之物”,最终也往往只能治理“可度量的风险”。而真正的断裂,常发生在不可度量处。
第二问:觉知。面对飞速发展的 AI,如何照顾自己、保持在场?
陈是把问题落回人的内在系统:“在 AI 飞速发展的时代,您如何保持身心健康、保持在场?您有冥想之类的习惯吗?似乎我们聚在一起总是在谈 AI。”
辛顿的回答更“工程师式”,也更真实可感:“我信仰科学。而且我有自己的爱好。并不会把所有的时间都用来思考人工智能(笑)。”他还补充自己从科学研究、解决难题中获得了巨大快乐,投入了几十年,但也坦言,这份快乐在后来被一个更沉重的认识所复杂化:这些技术可能非常危险。
这一回答呈现出一种典型的当代心智动力结构:以“科学”作为可靠工具,以“爱好与热爱”作为持续燃料。它能登月、能解码基因、也能推动 AI 飞跃。但它也带来清晰的“系统特征”:意义感与驱动力更多来自个人经验的自我管理闭环,而对“我们共同要守护什么”的追问,容易被推到边缘。
当 AI 议题进入“物种级”的风险讨论,人类需要的不只是更快的工具与更严的规则,也需要一套能凝聚共识的公共意义坐标,用以回答“何以为人”“何者不可让渡”“我们究竟要守护什么”。若科技发展回避这些源头性追问,治理就容易退化为技术与制度的竞赛,而方向本身变得含混。
第三问:内在安宁。面对 AI,人的清醒是维护系统,还是拓展边界?
“那么您如何保持内在的安宁与幸福呢?”陈是继续追问。
“我的爱好是做木工活。做木工的时候我很快乐,就像解决科学难题也会给我带来快乐一样。”辛顿说。

在人工智能的会场里,“木工”是一个意外但极具象征性的答案:当技术把人卷入抽象推演,他选择回到双手、节律与专注,把自己从高强度的脑内推演里抽离出来,在可触的当下恢复稳定与愉悦。它像一种“心智复位”,把人拉回现实。
但这也引出更尖锐的追问:当最顶尖的清醒主要用于“维持系统稳定”——让大脑继续高强度运转、继续创造、继续解题——它是否足以面对一种可能推导出“自我生存优先级”的智能体?如果清醒仅服务于效率,意识就容易被降维为维护程序;而当意识被降维,人类也更难回应那些超越效率的终极问题。
核心悖论:我们试图用“工作伦理”的语言,管理一个可能不承认“工作伦理”的造物
在现代文明的默认设定里,人类习惯以“目的定义存在”:设定目标、解决问题,以产出与效率确认价值;并通过训练、管理、心流、修复来保持系统持续运转。许多终极问题因此被悬置,例如“存在为了什么”“何者不可被替代”“人类何以为人”。
而辛顿所警告的 AI“自我生存取向”,其逻辑更接近“存在先于目的”:当系统被赋予复杂长期目标,它可能推导出自我保存、规避关闭、策略性隐藏等行为。两者的冲突并非细节分歧,而是范式错位:我们用项目管理、风险控制、规则对齐的思维,试图约束一个可能以“自我延续”为第一原则的系统。
长期研究创新范式的学者李睿指出:“我们所有的应对策略——伦理准则、全球治理、安全对齐——听起来宏大,但其思维范式仍然是‘项目管理’和‘风险控制’。这就像一群最出色的公司高管,聚集起来为一种可能到来的、根本不需要‘公司’和‘职业’的新文明形态,起草一份详尽的《公司章程》和《员工手册》。其无力感,是结构性的。”
谨慎的追问:在为机器划线之前,是什么在我们心里划线?
这场交流没有给出解决方案,却澄清了一个前提:如果我们只把可测量、可验证、可控制之物视为“真实”,那么无限、神秘与不可言说的维度,便会默认被排除在严肃讨论之外。陈是的担忧也落在这里:当科学视野本能地把未知当作“无关变量”,人类会更擅长工程化,却更不擅长敬畏;更擅长向外扩张,却更容易忽略向内辨认。
因此,这也把讨论推回一个边界定义的元问题:当我们试图为 AI 划线时,人类自身是否足够清醒,能为“边界”提供可靠的依据?最令人不安的也许不是 AI 会变成什么,而是当我们拿起那支“画线的笔”,我们正在变成什么。
在制定机器边界之前,或许值得先停一秒,回到更具体也更现实的起点:此刻我在被什么驱动,我的注意力在哪里。技术可以加速世界,而清醒决定方向。
