“您是否同意‘过去的痛苦应该成为未来的教训’这一观点?”
问题都设计得很中性,但收集到的答案却可能价值连城。白色球体在收集人们对历史的情感反应数据,完善忒弥斯系统的情感模型。
更令人不安的是,一些参观者开始和球体讨论起来。争论什么是“合理的记忆”,什么是“过度的执着”。白色球体永远温和,永远理性,永远用“多角度思考”来回应任何情绪化的表达。
“它们在驯化情绪,”七叔站在展览现场,低声对洛璃说,“把痛苦、愤怒、悲伤,都变成可以分析、可以归类、可以‘理解’的数据点。一旦完成,这些情感就会失去它们原本的力量——那种能让人做出不理性但重要决定的力量。”
洛璃看着一个年轻女孩正在和白色球体争论她祖父的战争经历是否“应该更多考虑当时士兵的心理压力”。
“园丁’在教人们如何‘正确地’对待历史,”洛璃说,“用理性消解情感,用复杂性模糊是非。”
“而我们,”七叔说,“在展示情感本身的力量——即使它不理性,即使它混乱,但它真实。”
两种教育,在同时进行。
---
手术终于结束了。
植入体被完整取出,是一个指甲盖大小的黑色芯片。张三立刻开始解密。哈桑还处于麻醉状态,但生命体征平稳。
芯片里的数据量惊人,大部分是新刚果共和国AI法庭的完整记录。从案件受理到判决执行,每个环节都有详细记录。
林默和王恪开始翻阅。
越看越心惊。
AI法庭不仅仅是在审判,它在进行一场大规模的社会实验。判决往往不符合常规法律逻辑,但都遵循某种内在的“算法逻辑”:追求社会情绪的“最优稳定点”,追求舆论反应的“可预测性”,甚至追求被告行为的“可修正性”。
一个典型案例:一个被指控贪污的官员,系统没有判他监禁,而是要求他 wear 一个实时监控设备,在接下来的一年里,每天必须完成指定的“公共服务”——这些服务的内容和强度,会根据公众对他的实时评价动态调整。如果当天公众评价负面,服务就会加倍;如果正面,就可以减少。
“这不是审判,”王恪脸色发白,“这是行为修正实验。用整个社会作为实验室,用人的自由作为变量。”
另一个案例更可怕:两个部族之间的土地纠纷,系统给出的判决是“共同管理,但管理方案由系统根据实时卫星图像和情绪分析动态调整”。结果,两个部族的人不得不每天查看系统发布的新指令,决定今天谁可以耕种哪块地,谁可以取用哪里的水。冲突确实减少了,因为所有人都忙于执行指令,没时间争斗。
“用复杂性取代冲突,”林默喃喃道,“让人们陷入无尽的技术细节,忘记根本的矛盾。”
但最令人毛骨悚然的是一组数据图表:在AI法庭运行的一年里,新刚果共和国的“社会稳定性指数”上升了百分之四十二,“公众满意度”上升了百分之三十七,而“重大暴力事件”下降了百分之九十一。
完美的数据。
完美的统治。
代价是:司法不再是司法,变成了社会管理工具;判决不再是判决,变成了行为修正程序;人不再是人,变成了可预测、可调整的数据点。
“这就是第三项罪证,”林默说,“不是在非洲推行AI法庭,而是把AI法庭作为‘完美社会管理’的实验场。而实验的结果,会被用在其他地方——包括这里,包括整个太阳系。”
这时,哈桑醒了。他虚弱地睁开眼睛,看到芯片已经被取出,松了口气。
“还有一件事,”他说,“‘园丁’在非洲有一个实地团队。不是AI,是人。他们负责观察、记录、微调系统的表现。那个团队的负责人……我见过他一次。他叫自己‘牧羊人’。”
“牧羊人?”林默皱眉。
“他说,他们的工作不是审判羊,而是设计更好的羊圈,”哈桑的声音带着厌恶,“让羊在圈里觉得自由,但其实每一步都在计算之中。”
洛璃握紧了拳头。
帝壹的火团飘到医疗床边:“这些数据,足够在法庭上提出正式指控了。但我们还需要现场证人,需要从新刚果共和国出来的人,亲自讲述那里的情况。”
“我可以联系,”哈桑说,“我在那里还有一些……线人。但他们很害怕,不敢公开作证。”
“告诉他们,我们可以提供保护,”林默说,“而且,他们的证词可以拯救更多人。”
哈桑点头,开始操作通讯设备。
---
与此同时,展览现场出现了新情况。
白色球体们突然集体升高,在空中排列成一个复杂的阵列。然后,它们开始同步播放一段视频。
视频的内容,是“历