第12章 老化的计算机
我不打算让Bailiwick就这么永远运行下去。到某个时候,我会让它下线、归档,然后去做下一个软件项目。软件就像一辆车、一株植物或者一段感情关系,需要你的呵护和持续关注。它也有生命周期。
网站、App和程序都会经常损坏,因为它们所在的计算机老化了,需要升级了。世界每天都在变,软件需要升级。哪怕你只是将一个简单的网站做了服务托管,那家服务公司总会变更管理条款、被收购、升级服务器等等,最终有些东西就会不可避免地损坏。在你参与软件项目的每一年,你都在为自己累积技术债务——维护软件、添加补丁和修复程序。安德鲁·罗素教授和李·维塞尔教授在《纽约时报》的一篇社论中写道,有60%的软件开发成本花在日常维护上,比如修复漏洞和升级软件。[1]有一项事实与大众所以为的相反,那就是在软件项目中,未来需要的大量工程师和软件开发人员,在新项目初期的创新环节中是不需要的。70%的工程师专职维护现有产品,而非制造新产品。
软件需要日常维护。这一点提醒我们,数码世界不再是一个新的世界。就像第一次互联网热潮的先驱们一样,数码世界步入了中年。如果我们将明斯基或图灵的年代视作数码时代的开端,那么如今数码时代已然步入老年。现在到了对技术以及维持技术更加诚实和现实的时候。我对此相当乐观,认为我们能够找到一条利用技术支撑民主和人类尊严的前进道路。
错误已经犯下了。这可能是媒体行业面对数字革命时时克制的原因,也可能是科技行业应对数字革命的难点。关键是要知前车之鉴,以便日后不再犯同样的错误。
有一件事我们可以做,我们可以不再称技术为新的、闪耀的、创新的事物,而将其视为生活中寻常的一部分。世界上第一台计算机ENIAC于1946年面世。我们有半个世纪的时间可以用来弄清楚如何整合技术和社会。半个世纪的时间可不短。然而,漫长的半个世纪过去了,我却常常在参加技术会议时发现,会议的前10分钟花在了尴尬的等待之中。要等到有人搞清楚怎么用投影仪让PPT显示在大屏幕上,会议才能进入主题。如今,我们已经成功利用数字技术加大了美国的贫富差距,促进了非法药物滥用,破坏了新闻自由的经济可持续性,引发了“假新闻”危机,削弱了公民投票权和公平劳工权益,监视公民,传播垃圾科学知识,在网上对人进行骚扰和跟踪(主要是女性和有色人种),让飞行器学会了一些能力(最好的能力是骚扰人,最坏的能力是扔炸弹),增加了身份盗用的案件,致使黑客为盗取数百万信用卡号用于欺诈活动,出售大量个人数据,选出唐纳德·特朗普做总统。这并非早期技术传道者愿景中更美好的世界。今天这个世界所存在的人性问题从来有之,不是什么新鲜事。但今天的问题藏身在代码和数据中,这使得它们更难被发现,更容易被忽略。
显然,我们需要做出改变。我们不应该再迷恋技术。我们需要审核算法,警惕不平等现象,减少计算系统及科技行业内的偏见。劳伦斯·莱斯格写道,如果代码是法律,那么我们需要确保编写代码的人不违反他们写下的法律。至今,他们在自我管理方面的努力还有许多进步空间。前车之鉴可做后事之师,首先,我们要留意这些问题。
新闻界和学术界的一些项目表明,一种关于人工智能的更为平衡的新视角即将出现。其中有一个项目是AI Now计划,这是由来自微软研究院及纽约大学的凯特·克劳福德和谷歌开放研究所的梅雷迪斯·惠特克于2017年创立的策略小组。该组织由硅谷资助,最初是奥巴马总统白宫科技政策办公室(Office of Science and Technology Policy)和白宫国家经济委员会(National Economic Council)的联合项目。AI Now发布的第一份报告聚焦于人工智能技术在四个基本领域产生的社会和经济问题:医疗保健、劳工就业、不平等和道德伦理。他们的第二份报告呼吁“对所有核心公共机构(例如负责刑事司法、医疗保健、福利和教育的机构)使用禁令,令其立即停止使用‘黑箱’人工智能和算法系统,转而使用通过验证、审核或公共审查等机制来实现问责制”。[2]另一个智库——由达娜·博伊德带领的Data & Society项目,致力于理解与提升人类在人工智能系统中起到的作用。[3]在第9章的“好自拍”实验中,假如他们对被试者(即那些给自拍点赞的人)及实验者的社交环境能有更细微的理解,他们本可以从实验中受益。另一个值得研究的领域是禁止社交网络上显示露骨内容的人类系统。每当网络上的暴力或色情内容被识别出来,必须有人类去查看并判断它是不是斩首的视频,是不是什么物件被不恰当地插入孔中的照片,是不是表现了最险恶的人性的其他东西。每天观看这些污秽内容可能会造成创伤性心理问题。[4]我们绝对应该审视这种做法,站在文化共同体的立场,共同决定此事的意义以及我们应该采取的措施。
在机器学习领域,已经有许多针对更好地理解算法不平等和算法问责制的举措。公平、责任及透明机器学习会议(简称FAT ML)以及机器学习社区在这方面是先锋。[5]在哈佛大学定量社会科学研究中心,拉坦娅·斯威尼教授的数据隐私实验室正在研究大型数据集(尤其是医疗数据)中潜在的隐私侵犯行为,这是一项突破性工作。该实验室的目标是创造技术和政策,“允许社会在一些有价值的目的驱使下收集和分享私人(或敏感)信息,同时保护隐私”。[6]同在剑桥市的麻省理工学院媒体实验室主管伊藤穰一正致力于改变计算机科学界对种族和民族多样性的表述,并创建质询系统。麻省理工学院研究生卡西克·蒂纳格尔在人机闭环系统方面的研究表明,麻省理工学院媒体实验室教授伊亚德·拉万已经着手研究他所谓的“社会——机器闭环”的机器学习系统,他希望将这个技术用以清晰阐明人工智能中的道德伦理问题(比如电车难题)。还有一个聚焦人工智能的伦理与治理的项目,由麻省理工学院媒体实验室与哈佛大学伯克曼·克莱因中心牵头发起,由人工智能伦理与治理基金会(Ethics and Governance of Artificial Intelligence Fund)资助。
当然,还有兢兢业业的数据记者们。尽管新闻行业裁的裁,减的减,他们仍做出了高水平的工作成果。坊间还有许多卓越的工具可用以对文档和数据进行复杂分析。DocumentCloud就是一个安全的文档在线存储库。截至笔者撰写本文时,DocumentCloud共有360万个源文档,全球范围内累计有1 619个机构的8 400多名记者使用过它。DocumentCloud的用户散落在全球各地,也有小型与大型新闻机构。许多具有高度影响力的报道,就将文件托管在DocumentCloud上,比如巴拿马文件和棱镜门事件中斯诺登的文件。[7]全球的数据记者数量正慢慢增加。2016年,数据记者年会NICAR第一次召开时,有1 000多名参会者。每年,都有诸如数据新闻奖之类的奖项被颁发给真正有影响力的调查数据项目。我们看好数据新闻学的未来,是有原因的。
本书广泛涉及了当今计算技术的历史和基础知识。在我思考人们理解计算机的方式时,我决定前去参观计算机诞生的地方:宾夕法尼亚大学莫尔电子工程学院。在那里,游客可以参观那台被视作世界上第一台数字计算机的ENIAC的部分机件。从某种意义上说,ENIAC的家也是我的事业开始的地方。20世纪70年代,我的父母在宾夕法尼亚大学读研究生的时候开始约会。他们在学校的计算机中心一起待了很长时间。他们会将穿孔卡片排好装在盒子里,去计算机中心排队,等轮到他们了,就将卡片放入大型计算机里进行统计实验。我母亲曾经告诉我,如果卡片掉地上了,那就全完了,能不能排列回原来的顺序就自求多福吧。
在莫尔大楼外面,有一个为ENIAC设立的纪念牌,上面的字体与费城其他历史地标的字体一样,比如制作出第一面美国国旗的贝琪·罗斯女士故居。我去的那一天,空气清爽,万里无云。在人行道上,数十名身穿深色西装和裙装的高中生从我身边走过。有些学生手里攥着标记着“模拟国会”的白色三环活页夹。有些男生在不合身的西装外套了滑雪服,其中有一位穿的是迷彩服,帽檐有一圈毛皮。一个女孩穿着黑色鹿皮高跟鞋在人行道上拖着步伐走路,我听见她向她的朋友抱怨:“我甚至不知道怎么穿高跟鞋走路。”他们很开朗、纯净,在校园里感觉像大人一样,没有老师盯着。这让我想起,当年就是模拟联合国(反正要穿不合身的衣服什么的)之类的活动帮我的朋友和我过渡到成年。把自己打扮成成年人,参与模拟的职场活动,是我们学习做成年人的方法之一。我想,用视频会议或即时聊天来取代这些经历也是可以的。但这样干就很无趣了,我也很难想象青少年会想要这样干。
我没有门禁卡,于是,我在大楼入口处徘徊,直到一位有门禁卡的学生出现。他瞥了我一眼,确定我对他没有什么威胁,便不以为意,继续他在电话里嘀嘀咕咕的对话。我进了大楼,在走廊的窄道上穿行,有点迷路。我经过了快速成型实验室和精密加工实验室。两个实验室都装满了笨重的钻床、3D打印机和处于不同失修状态的巨型机械。工程师们对设备的要求很高。一位机械工程专业的学生不忍我碰壁,带我去了ENIAC所在的地方。它就在一楼的木制双门后方的学生休息室里,只有几块面板展出。一块使用20世纪60年代字体的标牌写道:“ENIAC,世界上第一台大型电子通用数字计算机。”
在休息室里,有三个可供学生团队使用的木制餐车式展位,另外还有三个带吧台椅的吧台区,供非团队合作的学生使用。一沓Facebook宣传明信片散落在一台电脑和打印机旁的吧台上。“成为Facebook软件工程师,无论是实习生还是应届生,你编写的代码都将影响全球超过14亿人。”一张卡片上这样承诺。显然,Facebook正在招募那些行动迅速、勇于创新、能承担风险和解决问题的人。“连接世界,人人有责。”这张卡片又明确告诉我。我同意,连接世界确实是一项团队协作活动。然而,我对单纯使用技术来解决问题仍存疑问。技术已经引起社会结构上的摩擦,这些摩擦都显示群体和机构中的面对面社交联系比以往任何时候都更重要。理解力和群体身份认同最好通过现场和在线互动来培养,而非仅通过屏幕上的互动。
电脑旁边有一堆废弃的教科书。我默默地读起它们的书名:《生命:生物学科学》《高等工程数学(第三版)》《高级工程数学(第三版)学生解答手册》。尽管这些书是被心不在焉的学生落下的,但看到数学书和生物学书被摆在一起,我仍感到有点愉悦。这表示这位学生既想着技术,又念着自然演化。
休息室外有三个计算机实验室,每个实验室都有数十台计算机。休息室里的学生没有一个把ENIAC当回事儿。有些人在研究Python习题集,还有几个学生在聊MCAT的备考进度。人们提着白色塑料袋和咖啡杯(从外面的餐车上买的午餐)晃进休息室。实验室里的学生表现出一种大学生式的真诚、严肃和可爱。这些学生就是模拟联合国活动那些孩子若干年后想要长成的样子。这些孩子都太棒了。我喜欢在大学里工作。大学是充满希望并且有益的地方。
ENIAC在玻璃墙后显得很不起眼。原机器占据了整个地下室。一排真空管铺在地上,看起来像是微型灯泡——就像威廉斯堡的时髦酒吧使用的电线外露的复古小灯泡。
我面向ENIAC显示区的主要部分。黑色电线从每个部分的底部垂下,线绕着线,连着一个插头。插头和旋钮数不胜数。在它的循环单元面板上,有一个巨大的白色眼球似乎正茫然地盯着我。这就是它的信息读取器吗?我意识到,难怪它看起来那么熟悉,原来它就是克拉克、库布里克和明斯基给《2001太空漫游》中那台“有感知力的计算机”HAL 9000设计的同款摄像眼球。ENIAC的眼球是白色的,HAL 9000的眼球是红色的。红色看起来更骇人。
墙上挂着的黑白照片显示,人们在ENIAC原本所在的地下室中操作它。八名男子站在这台计算机前,僵硬地摆着姿势。在录像中,女性工作人员穿着西装和平底鞋,梳着一丝不苟的发型,手中不停开关旋钮,接入插头。我在最近这几年才开始看到这样的画面。也许这些画面一直在那儿,只是我没有注意到。也许是有人有意识地尝试让女性进入计算机科学的叙事影像。不管是哪一种情况,我都颇为欢喜。我也喜欢六位女性计算员被随意拍摄到的一张照片,她们一个挨着一个,都在开怀大笑。我喜欢这些女孩在一起很开心的样子。这个画面提醒人们,计算领域未必非得由男性主导不可。20世纪40年代到50年代,许多人类计算员都是女性。但是,到了开发者们(大部分都是男性)决定推进数字计算机时,女性计算员的工作岗位便销声匿迹了。随着计算成为高薪职业,女性也逐渐被淘汰。这是经由慎重选择的结果。人们在计算机发展的早期选择模糊女性在其中扮演的角色,后来又将女性从计算的劳动力市场上排挤出去。我们现在就可以改变这一情况。
我想到了ENIAC与当今Windows PC、Linux PC实验室中的计算机的差距。这些机器承载着无数的人力和智慧。我无比尊重科学技术的历史。然而,计算机会出错,这是因为计算机是人类在特定的社会和历史背景下创造出来的。
技术人员有特定的学科优先级,这些优先级指导着他们制定决策算法的开发决策。通常,这些优先级会让他们轻视人类在创造技术系统或管理大数据方面的作用。还有更糟糕的,这些优先级会让他们忽略自动化对人类工作场所的影响。
看着ENIAC,想象用这堆笨重的金属解决世界上的所有问题,这听起来似乎很荒谬。但随着ENIAC变得越来越小、越来越强大,我们现在可以将它收在口袋里,要想象关于它的事情并且实现这些事情也就变得容易多了。我们需要停止这样的行为。将现实世界变成数学是很了不起的戏法,但是很多时候,在这个等式中,总有无法用数学量化的人类部分被晾在一边。人类现在不是,也从来不是麻烦。人类就是关键,是所有技术应该服务的对象。而且,这并不是指一小部分人类——人人都应被包括在内,也都应从技术的开发和应用中有所受益。
[1] Russell and Vinsel, “Let’s Get Excited about Maintenance!”
[2] Crawford, “Artificial Intelligence’s White Guy Problem”; Crawford, “Artificial Intelligence — With Very Real Biases”; Campolo et al., “AI Now 2017 Report”; boyd and Crawford, “Critical Questions for Big Data.”
[3] boyd, Keller, and Tijerina, “Supporting Ethical Data Research”; Zook et al., “Ten Simple Rules for Responsible Big Data Research”; Elish and Hwang, “Praise the Machine! Punish the Human! The Contradictory History of Accountability in Auto mated Aviation.”
[4] Chen, “The Laborers Who Keep Dick Pics and Beheadings Out of Your Facebook Feed.”
[5] Fairness and Transparency in Machine Learning, “Principles for Accountable Algorithms and a Social Impact Statement for Algorithms.”
[6] Data Privacy Lab, “Mission Statement”; Sweeney, “Foundations of Privacy Protec tion from a Computer Science Perspective.”
[7] Pilhofer, “A Note to Users of DocumentCloud.”