下一章 上一章 目录 设置
2、第一次交锋 两人被迫合 ...
-
三天后,深度算法公司的会议室里,沈知微和程越第二次见面。
这次不是一对一。长桌的一边坐着沈知微和她的同门师弟陈果——一个戴圆框眼镜、说话慢条斯理的哲学系硕士生;另一边是程越和他的产品经理苏小晚。
林一鸣坐在长桌的一端,充当这次会议的主持人。
“好了,人都到齐了。”林一鸣拍了拍手,笑容满面,“今天这个会很重要啊,伦理委员会那边要求我们在两个月内提交初步的评估框架,沈博士负责帮我们搭建这个框架。程越,你这边技术团队全力配合。”
程越坐在椅子上,面前的电脑屏幕亮着,他的目光在屏幕和沈知微之间来回切换。今天他换了一件黑色的连帽衫,头发比三天前更乱了一点。
“先把框架发给我看看。”他说。
沈知微从包里拿出一份打印好的文件,推到桌子中央。苏小晚眼疾手快地拿过去,递给程越。
程越接过文件,低头看。
沈知微在他看文件的间隙,简要介绍了一下框架的思路:“我按照伦理委员会的评估标准,把框架分为四个维度:公平性、透明性、问责性、隐私保护。每个维度下面设置具体的评估指标和评分标准。你们的技术团队需要按照这个框架,提供相应的数据和说明。”
程越看完第一页,翻到第二页,眉头渐渐皱了起来。
“公平性维度下的第三个指标:‘算法是否存在系统性偏见?评估方式:对比不同群体间的决策结果差异。’”他抬起头,看着沈知微,“你知道这个指标意味着什么吗?”
“意味着你们需要测试算法在不同性别、年龄、种族、收入水平等群体上的表现差异。”沈知微说。
“我知道它意味着什么。”程越的语气有些硬,“我的意思是,你提出这个指标的时候,有没有考虑过实现成本?”
“成本是你们需要考虑的问题。”沈知微说,“我负责的是提出合规标准。”
“但你提出的标准如果不切实际,整个框架就没有意义。”
“哪里不切实际?”
程越把文件翻到第二页,指着其中一个段落:“你说要‘对比不同群体间的决策结果差异’。好,我问你:群体怎么定义?性别只有男和女吗?年龄怎么分段?18到25是一段,还是18到30是一段?收入水平按什么标准划分?这些划分方式本身就可能引入新的偏见。你用一个有问题的分类标准去测试另一个算法,得出的结论能说明什么?”
沈知微安静地听完,然后说:“你说的这些问题,属于技术实现层面的细节。框架给出的是方向,具体怎么操作,需要你们技术团队根据实际情况来设计。”
“方向。”程越重复了一遍这个词,语气里带着一丝嘲讽,“沈博士,你有没有想过,方向错了,跑得再快也没有用?”
会议室里的气氛瞬间冷了下来。
陈果推了推眼镜,想要开口说点什么,但被沈知微一个眼神制止了。
“那你觉得方向应该是什么?”沈知微问。
程越把文件放回桌上,身体往后靠。
“我觉得你们伦理委员会的标准,本质上是把学术论文里的理想模型,直接套用到实际产品上。”他的声音不大,但每个字都说得很清楚,“你们要求公平性,但公平性本身就是一个哲学问题——什么叫公平?机会平等还是结果平等?不同的人有不同的答案。你们用一个没有标准答案的概念去要求一个算法,这本身就是荒谬的。”
“公平性确实是一个复杂的哲学问题。”沈知微点头,没有否认,“但这不意味着我们不能在技术实践中追求它。就像‘正义’也是一个复杂的概念,但法律系统每天都在追求正义。概念的复杂性不是放弃追求的理由。”
“我没有说放弃。”程越说,“我说的是,你们的框架太理想化,没有考虑实际约束。”
“那请你告诉我,实际的约束是什么?”
“时间、算力、数据质量、商业成本。”程越一项一项地列出来,“你要我做群体公平性测试,我需要大量的标注数据。标注数据需要人工成本,而且标注本身也会引入偏见。就算我做了测试,发现了偏差,修正偏差又可能影响模型的整体准确率。准确率下降了,用户投诉了,你伦理委员会来负责吗?”
沈知微沉默了两秒。
然后她说了一句让所有人都没想到的话。
“程越,你有没有想过,你刚才说的这些问题——时间、算力、数据、成本——本质上不是技术问题,而是价值观问题?”
程越皱眉:“什么意思?”
“意思是你把‘效率’和‘准确率’放在‘公平性’之上,这本身就是一个价值排序。”沈知微的目光平静地落在他脸上,“你问我‘伦理委员会来负责吗’,实际上是在说:公平性的成本太高,不应该由公司来承担。但你有没有想过,算法偏见的社会成本——那些因为算法歧视而失去贷款机会、被误诊、被错误定罪的人——由谁来承担?”
会议室里安静得能听见空调运转的嗡嗡声。
苏小晚看看程越,又看看沈知微,嘴巴微微张开,像是想说什么又不敢说。
林一鸣清了清嗓子,想要打圆场:“那个——”
“让她说完。”程越抬手制止了林一鸣。
他看着沈知微,深棕色的眼睛里有了一种新的东西。不是愤怒,也不是不耐烦,而是一种被击中了要害之后的认真。
“你继续说。”他说。
沈知微没有因为他的态度转变而放松。她打开笔记本,翻到事先准备好的某一页。
“我给你举个例子。”她说,“2019年,美国有一款医疗AI被发现在黑人患者身上表现更差。同样的症状,算法认为白人患者‘病情严重’的概率比黑人患者高很多。原因是算法训练数据主要来自白人医院,数据本身就有偏差。”
她顿了顿,继续说:“这个算法的准确率整体很高,公司也因此赚了很多钱。但对于那些被误诊的黑人患者来说,‘准确率高’这四个字,没有任何意义。”
程越没有说话。
他低下头,看着沈知微写的那份框架文件,手指无意识地敲击着桌面。
“所以你的意思是,”他慢慢地说,“我应该为了那百分之零点几的群体,牺牲整体的准确率?”
“不是牺牲。”沈知微纠正他,“是平衡。技术永远面临权衡,这是有限理性的核心命题——我们不可能在所有维度上都做到最优,但我们可以做出一个负责任的选择。”
“负责任。”程越重复了一遍这个词,像是在品味它的含义。
他沉默了很久。
久到苏小晚忍不住看了好几次手表,久到陈果开始不安地换坐姿,久到林一鸣以为他要发火了。
然后程越做了一个所有人都没预料到的动作。
他把沈知微的框架文件翻到第一页,从头开始,逐条看了一遍。
这一次,他不是在挑刺。他看得很认真,偶尔停下来想一想,偶尔在某个指标旁边用手指点一下,像是在心里做标记。
五分钟后,他合上文件,看着沈知微。
“公平性测试的那个指标,”他说,“我可以做。但我需要你帮我重新定义‘群体’的分类标准——你们哲学的角度,可能比技术角度的分类更合理。”
沈知微微微愣了一下。
她没想到程越会主动提出合作。
“可以。”她点头,“我可以提供分类标准的理论框架,但具体的参数设置需要你们技术团队来定。”
“行。”程越把文件推到桌子中央,看了苏小晚一眼,“小晚,后续你对接沈博士,把技术文档给她。”
苏小晚连忙点头:“好的好的!”
林一鸣适时地拍了拍手:“好!达成共识!那今天就到这?”
会议结束后,沈知微在收拾东西的时候,程越忽然走过来。
“沈知微。”他站在她旁边,比她高了将近一个头。
沈知微抬头看他:“怎么了?”
“你刚才说的那个医疗AI的例子,”他的声音比刚才低了一些,“我读过那篇论文。”
沈知微有些意外:“你读AI伦理的论文?”
“我的研究方向是情感计算。”程越说,“情感计算的核心是理解人的情绪。如果你不理解人的需求、人的困境、人的不公平,你怎么可能做出真正有用的AI?”
沈知微看着他的眼睛。
那双深棕色的眼睛里,没有了刚才的锋芒,取而代之的是一种她看不懂的复杂。
“那你刚才在会上为什么要跟我吵?”她问。
程越微微勾了一下嘴角——那是沈知微第一次看到他笑。
“因为我想知道你是不是真的懂。”他说。
“现在呢?”
“你懂。”他说完这两个字,转身走了。
沈知微站在原地,看着他的背影消失在办公区的工位之间。
陈果凑过来,小声说:“学姐,这个程越好像没那么难搞?”
沈知微没有回答。
她把笔记本合上,发现自己在会议记录的最后一行,无意识地写了一个字:
“懂。”
她盯着这个字看了两秒,然后划掉了。