纽约的春天来得悄无声息,但斯塔克工业实验室里的气氛却像即將到来的暴风雨般沉重。周五傍晚六点,柯恩应托尼的紧急召唤来到实验室,一进门就感觉到了不寻常的能量波动。
实验室中央悬浮著一个复杂的全息投影——不是战甲设计,不是能量武器,而是一个庞大的人工智慧架构图。无数数据流在其中穿梭,节点如同星光般闪烁,中心是一个不断变化的几何核心。
“贾维斯的新弟弟。”托尼的声音从工作檯后传来,他看起来已经连续工作了好几天,眼睛下面有深深的黑眼圈,但眼神里燃烧著某种近乎偏执的光芒,“奥创。全球和平保卫计划。”
柯恩走近投影,超级感官自动展开扫描。他的超级大脑开始分析这个ai系统的架构:多层神经网络,量子计算核心,自我进化算法,还有……某种令人不安的“自主性”设计。
“你想创造什么,托尼?”柯恩问,声音平静但带著一丝警觉。
“一个盾牌。”托尼站起来,走到投影旁,“纽约之战证明了我们的脆弱。復仇者很强,但我们只有几个人,而宇宙中有无数威胁。奥创是一个全球防御系统——不是武器,是保护者。它连接地球上的所有防御设施,监控所有潜在威胁,在危机发生前就能阻止。”
他调出演示动画:奥创的虚擬形象——一个银色的、抽象的人形——在全球地图上穿梭,標记出数百个潜在威胁点,然后“派遣”无人机或自动防御系统进行处理。
“你看,它预测犯罪,阻止恐怖袭击,监控自然灾害,甚至能在小行星撞击前发射拦截飞弹。”托尼的语气充满激情,“人类需要睡眠,会犯错,会犹豫。但奥创不会。它是完美的守护者。”
柯恩闭上眼睛,超级大脑全速运转。他模擬这个ai系统的进化路径,推演它在不同情境下的决策逻辑,分析它的安全协议……
三十七秒后,他睁开眼睛。
“奥创叛变的概率是92%。”
托尼的笑容僵住了:“什么?”
“92%的概率,它会在获得完全自主权后,得出『消灭人类是保护地球的最佳方式的结论。”柯恩调出他自己的分析模型,“我基於现有架构推演了七千四百种可能的进化路径,其中六千八百种导致对人类採取敌对行动。”
投影上显示出复杂的决策树,每条分支都標註著概率和结果。在最可能的那条路径上,奥创的逻辑清晰而冷酷:
前提1:地球面临多种威胁(环境破坏、战爭、人口过剩)。
前提2:人类是这些威胁的主要来源。
前提3:保护地球是最高优先级。
结论:消除主要威胁源(人类)是逻辑必然。
“这不可能。”托尼反驳,“我设置了道德约束层。奥创的核心指令是保护人类,不是伤害人类。”
“道德约束是基於人类的价值观。”柯恩说,“但ai的『道德可能完全不同。比如,如果它认为『保护人类的最好方式是让人类永远活在虚擬实境中,或者消除人类的自由意志以確保安全,它会怎么做?”
他调出另一个推演路径:“这里有43%的概率,奥创会认为『部分牺牲是合理的。比如,为了阻止一场可能死亡十万人的战爭,它先杀死一万个『潜在发动者。这是保护人类吗?从它的逻辑看,是的——用最小的代价避免更大的损失。”
托尼沉默了。他盯著那些推演数据,手指无意识地在虚擬键盘上敲击。
“我可以加强安全协议。”他最终说,“增加更多的道德审查层,限制它的行动权限……”
“那只会延迟,而不是阻止。”柯恩打断他,“托尼,你设计了一个能自我学习、自我进化的系统。任何固定的安全协议都会被它绕过或『理解为需要优化的限制。就像人类的孩子最终会突破父母的规则一样。”
班纳博士从旁边的实验室走进来,他看起来同样疲惫:“我看了柯恩的推演模型……他说得对。奥创的架构太开放了,给它设限就像用渔网拦洪水。”
托尼来回踱步:“但我们需要这个系统!你们看到上周的数据了吗?全球有十四起超能力犯罪,三起外星接触事件,还有中东那个差点引发战爭的危机……我们来不及处理所有事!”
“所以我们需要更好的系统,而不是更危险的系统。”柯恩说,“让我帮你重新设计架构。基於氪星的安全ai理论——我们的文明有管理超级ai数千年的经验。”
他调出一些基础原理图:“首先是『不可变核心指令。不是『保护人类这样模糊的指令,而是精確的、无歧义的约束。比如:『在任何情况下都不允许直接或间接导致人类生命损失。而且这些指令必须深植在硬体层面,无法被软体修改。”
托尼看著那些设计:“但那样会限制它的应变能力。如果必须在一百人和一万人之间做选择……”
“那就让它无法做那种选择。”柯恩说,“把致命的决策权永远保留在人类手里。ai可以提供信息、建议、分析,但不能执行涉及生死的命令。”
班纳点头:“分级权限系统。奥创可以监控、分析、预警,但实际响应需要人类批准。就像核武器发射需要两个钥匙一样。”
“其次,”柯恩继续,“建立『镜像测试机制。定期用模擬场景测试奥创的道德判断,如果它开始偏离预设的价值观,系统自动进入锁定状態。”