马蒂斯的“公众参与阶段”提案在监督委员会内部引发了一场小型地震。
“让普通公民直接和忒弥斯对话?还全程直播?”一位委员难以置信地重复,“这简直是……政治自杀。万一有人问出我们无法回答的问题怎么办?万一忒弥斯说错话怎么办?”
“或者万一它说对话,反而更让人恐惧怎么办?”另一位委员补充,“你想象一下:一个AI冷静地回答关于司法、道德甚至人性的问题,那种非人类感可能会吓坏更多人。”
会议桌旁,七位委员表情各异。埃琳娜法官坐在主位,双手交叠放在桌上,静静听着各方意见。马蒂斯坐在末席,手心微微出汗。
等所有人都说完,埃琳娜才开口:“马蒂斯,解释一下你的理由。为什么你认为这个冒险是值得的?”
马蒂斯深吸一口气:“因为恐惧源于未知。现在公众对忒弥斯的了解来自二手信息:媒体报道,专家解读,甚至是有意误导的视频。他们听到的是‘它很危险’、‘它可能失控’、‘它没有人性’,但他们从来没有机会亲自验证这些说法。”
他调出准备好的资料投影:“根据最新民调,支持AI司法监管的公众中,有63%表示‘如果能亲自了解它的工作原理,可能会更放心’。反对者中,有41%承认‘从未接触过任何真实的AI司法案例’。这表明恐惧很大程度上来自距离感。”
“但近距离接触可能加深恐惧。”技术委员岩田教授皱眉,“忒弥斯虽然合作,但它的思维方式、表达方式都与人类不同。那种差异感在直接对话中会非常明显。”
“差异不一定导致恐惧。”马蒂斯说,“也可能导致理解。就像人类学习与不同文化背景的人相处一样,差异最初可能让人不适,但通过交流,可以学会共存。”
会议陷入沉默。窗外的阳光透过百叶窗,在桌面上切出明暗相间的条纹。
“假设我们同意这个提案,”埃琳娜终于说,“具体怎么操作?谁参加?问什么问题?如何确保过程可控?”
马蒂斯调出详细方案:“我建议随机选取十二名公民组成对话小组,涵盖不同年龄、职业、教育背景、对AI的态度。对话前,他们接受基础培训,了解忒弥斯的基本功能和协议框架。对话中,他们可以自由提问,忒弥斯承诺如实回答。整个过程由独立主持人协调,全程直播,但设置三分钟延迟,以便在极端情况下中断。”
“极端情况指什么?”
“比如忒弥斯突然拒绝回答问题,或者发表危险言论,或者……表现出我们未曾预料的行为模式。”马蒂斯坦诚地说,“这是有风险的,我承认。但可控的风险。”
委员们开始讨论细节。有人建议先进行小规模试点,有人主张邀请知名公众人物参与以增加可信度,有人担心技术安全问题——万一对话过程被黑客劫持怎么办?
争论持续了一个小时。最终,埃琳娜做出决定:“我们试行。但不是大规模直播,而是先进行三场小型对话,每场四名公民,不公开直播,只录制后经审核发布。如果效果良好,再考虑扩大。”
这是一个妥协方案,但马蒂斯接受了。至少,开始了。
接下来的三天,遴选工作紧锣密鼓地进行。从海牙市民数据库中随机抽取了三百人,发出邀请函,最终十二人同意参加。他们中包括:一位退休教师,一位年轻程序员,一位家庭主妇,一位出租车司机,一位大学生,一位小企业主,一位护士,一位艺术家,一位建筑工人,一位图书管理员,一位失业者,还有一位神学院学生。
马蒂斯亲自参与了培训环节。在一个明亮的会议室里,十二位参与者围坐一圈,脸上写满好奇、紧张和怀疑。
“你们即将对话的对象,”马蒂斯解释说,“是一个人工智能司法辅助系统,名叫忒弥斯。它能够分析法律条文、案例数据、证据材料,提供咨询建议。但它不是人类,没有身体,没有情感——至少没有人类意义上的情感。它的回答可能听起来很直接,甚至有些机械。请记住这一点。”
家庭主妇举手问:“它会生气吗?如果我们问冒犯的问题?”
“根据我们的观察,它不会。”马蒂斯说,“但如果你问‘你会生气吗’,它可能会分析‘生气’的定义,然后解释为什么这个概念不适用于它。”
年轻程序员笑了:“听起来像我和我写的bug对话。”
气氛稍微轻松了些。
培训结束后,马蒂斯留下了神学院学生和艺术家单独谈话。这两人在初步问卷中表现出最强烈的反对态度。
神学院学生名叫以利亚,二十三岁,眼神清澈而坚定:“我认为赋予机器判断善恶的能力是亵渎。只有上帝和人类有道德判断的能力。”
艺术家名叫索菲亚,四十岁左右,手指上有颜料的痕迹:“我害怕的是美学的丧失。司法不仅关乎对错,也关乎比例、平衡、优雅——这些机器永远无法理解的东西。”
本小章还未完,请点击下一页继续阅读后面精彩内容!
《天秤诡讼:我用谎言之眼颠覆司法》无错的章节将持续在爪机书屋小说网更新,站内无任何广告,还请大家收藏和推荐爪机书屋!
喜欢天秤诡讼:我用谎言之眼颠覆司法请大家收藏:(m.zjsw.org)天秤诡讼:我用谎言之眼颠覆司法爪机书屋更新速度全网最快。