AI起步,伦理同行

中国的人工智能近些年来发展迅猛,不少研究、技术和应用在世界范围内已经处于领先地位,然而在人工智能伦理方面,中国相比于美国、日本以及欧洲一些国家却略显滞后。不少学者呼吁,要在人工智能技术设计之初就考虑伦理的问题。也有学者提出,给人工智能植入人工智能伦理只有一次机会,如果失败的话,人类的未来可能就会面临被颠覆的风险。由此可见,伦理对于发展人工智能不但重要,而且十分必要。

从近几年相继出版的一些中小学人工智能的教材来看,人工智能伦理的相关内容不是一字未提,就是只言片语,极少有教材将伦理完整独立成章,这与机器学习/深度学习在人工智能教学过程中“过多”的内容占比形成了鲜明的对比。什么是德,德就是我们的社会主义核心价值观;什么是才,它是具备利用人工智能知识与技能改造自然、治理社会,为人民创造更美好生活的能力。

笔者在与不少中小学一线人工智能相关课程教师和学生们交流中发现,一个普遍存在的现象是中小学阶段很多学生对人工智能的认识存在一些误区,比如:人类最终会被人工智能替代,或是人类会被机器人毁灭,又或是以后不用再辛苦工作了,毕竟人工智能会替人们完成工作等等,以上种种误区其实均需要伦理的介入,为学生们答疑解惑。

伦理作为人工智能教育中一个重要的组成部分,可以安排在最后一课,也可以放在人工智能课程的初始之处。当然,也许会有人有这样的疑问,在同学们还不懂什么是人工智能的情况下,一开始就讲人工智能伦理,是否需要具备一定的人工智能知识与技能基础?这样是否会会打消学生们学习人工智能的激情?

其实,大可不必过于担心。首先,在现实生活中,人工智能这个名词大家已经耳熟能详,也已经知道了一些人工智能的应用;其次,伦理作为一个特殊的版块,既不涉及过多的人工智能知识,也几乎不要求编程这样的技能,对基础要求并不高;最后,伦理的内容涉及一些影视作品以及身边的新闻,如果应用得当,人工智能伦理这种接“地气”的课程更能不但可以激发学生学习人工智能的激情,也能激发他们后续辩证地学习人工智能课程。

虽无远虑,但有近忧

大冶铸金,金踊跃曰:“我且必为镆铘!”大冶必以为不祥之金。今一范人之形而曰:“人耳!人耳!”夫造化者必以为不祥之人。《庄子·大宗师》中的这段话表明,人们自古就对异类智慧产生了恐惧。

的确,自人工智能诞生起,每当人工智能在某方面“战胜”人类,人们总是充满了恐惧。但是,这种恐惧更多还是来于科幻小说与影视作品的描述,因为他们从某种程度上延展了人们的想象,仿佛压迫性的“未来”即将到来。不过,尽管一些人工智能相关的电影看起来十分的玄幻,但它们所讨论的议题确实值得思考。比如《人工智能》中机器人的情感,《她》中涉及的人与人工智能的情感,《AI崩溃》中的人工智能对人类的生存权的判断与选择等等。

 

人工智能相关的影视作品

以上的这些讨论,基本都属于强人工智能的范畴。何谓强人工智能,维基百科给出的定义是:强人工智能(Strong AI)或通用人工智能(Artificial GeneralIntelligence)是指具备与人类同等智慧、或超越人类的人工智能,能表现正常人类所具有的所有智能行为。这个领域其实是科幻小说家和未来学家所探讨的范畴。

超人工智能

说到科幻小说家,不得不提一位出生于苏俄的美籍犹太人作家与生物化学教授艾萨克·阿西莫夫,他创作力丰沛,产量惊人,创造及编辑过500本以上的书籍。著名的机器人三定律就出自他1942年的小说《转圈圈》,并在1985年的《机器人与帝国》中扩展一条第零法则:

第零法则:机器人不得伤害整体人类,或坐视整体人类受到伤害;

第一法则:除非违背第零法则,否则机器人不得伤害人类,或坐视人类受到伤害;

第二法则:机器人必须服从人类命令,除非命令与第零或第一法则发生冲突;

第三法则:在不违背第零、第一或第二法则之下,机器人可以保护自己。

这几条小说中的法则也成为后续机器伦理中的重要参考。

对人工智能给人类带来威胁的言论中影响最大要属奇点理论,它是雷·库兹韦尔在2005年的《奇点临近》一书中提出的一种预言。该理论认为机器的智能将在2045年全面超过人类。奇点一词出自冯·诺伊曼在与诺伯特·维纳谈话中受到启发而提出的“技术奇点”,后来,统计学家古德于1965年提出技术奇点的必要条件─“智能爆炸”概念。可见,“奇点”并不是一个新鲜的词语。

2045,奇点来临

这一理论之所以引发广泛的关注,可能也与一些名人的担忧有关。比尔·盖茨曾说:“我和那些担心超级智能的人同处一个阵营。起先,机器将帮我们做许多工作,更不用说超级智能。如果控制得好,人工智能应该会非常有利。不过,几十年后人工智能会强大到足以令人担忧的地步。”埃隆·马斯克也曾说道:“人工智能是关系人类文明存亡的最大威胁,这是汽车事故、飞机坠毁、滥用药物或劣质食品都比不了的威胁”。斯蒂芬·霍金认为,人工智能研发的成功有可能成为我们人类历史上最大的事件,但它也可能成为人类文明最后的成就,除非人们能够清楚如何避开风险。

在笔者看来,强人工智能与当下的人工智能有着根本的不同,现在还远未到过多担忧与讨论强人工智能的地步。当下的人工智能,尽管从图像识别、棋牌游戏等多方面均已远超人类,但它们也有先天不足的一面,比如只处理特定的问题,我们称当前的这种人工智能为弱人工智能(Weak AI, Narrow AI)。弱人工智能不会表现出自我意识或广泛的类似人类的认知能力,即使是最先进的人工智能也只是一个具体的问题解决者,没有任何智能感。正如AlphaGo能在围棋上战胜人类,可离开棋盘后它可能连一只猫也无法辨识。

弱人工智能

因此,教师要告诉中小学生强人工智能与弱人工智能引发伦理的区别,打消他们对人工智能的过度怀疑和恐慌,引导学生从理性的角度在合理的范围内对人工智能伦理问题进行思考。

AI遭遇电车难题

电车难题(Trolley problem)是目前你中小学人工智能教材中涉及伦理内容时几乎绕不开的一个案例,它是伦理学的一个思想实验,由英国哲学家菲利帕·福特在1967年首次提出。电车难题(如下图左)说的是一辆失控的列车正在铁轨上飞驰,然而前面的轨道上,绑着五个无法动弹的人,如果什么都不做,这五人必死无疑。此时轨道边有一个拉杆,如果拉动它,则列车会驶向另一个方向,这个方向的轨道上绑着一个人,现在拉杆边有一个人,他有两种选择:

A. 什么也不做,这样列车将“杀死”五个人。

B. 拉动拉杆,这样列车将“杀死”一个人。

电车难题还衍生出了另外一些版本,比如天桥版(如下图右),说的是可以将天桥上的某人推下阻止列车前行,而被推下的人,又有普通人及坏人之分。总之,电车难题带给人们的是一种道德困境,即在危急的情况下,是否可以伤害某类人群的利益/生命去挽救其他人群的利益/生命。2003年,洛杉矶的一辆铁路货运列车出现故障,当时就上演了一幕真实版的电车难题,调度员为了保护一方利益,切换行驶路线,导致了另一方的损失。

电车难题

为什么电车难题在人工智能伦理中受到如此的重视?究其原因还要从当前的人工智能技术发展程度说起。之前的计算机绝大部分都是人们输入指令,按照人们的要求执行具体的事情。而现在的计算机利用人工智能相关技术,可以“自主”替代人类做出某些决策,这就引发了新的伦理问题。

在自动驾驶过程中,如果致命的碰撞无法避免,是如下左图选择既定方向撞上三位老人,还是如下右图选择切换方向撞向年轻人和小孩?另外,会有多少人提出选择杀死一人保全多人的方案?如果那个要牺牲的人恰恰是坐在车内的你,你又会怎么选择?

 

选择的困境

自动驾驶是人工智能应用涉及伦理的案例之一,它背后折射出人们希望人工智能成为能在复杂环境中自主做出有利于人类利益选择的机器之隐秘心理。而一旦当人工智能具备这样的判断能力后,又会出现责任、法律等一系列接踵而来的问题。

弱AI中的大问题

上文中提及了弱人工智能的概念,弱人工智能在功能上较为单一,它们在方便人们工作、学习和生活的同时,也给人们和社会带来了一系列的伦理问题。

笔者认为,中小学人工智能教学过程中,可以涉及如算法歧视、数据隐私和可解释AI等几个关注度较高的问题。

1.算法歧视

随着数据的不断增加,算法已经渗透到人们工作、学习和生活的方方面面,医疗、信贷、招聘、安防、信息推荐、购物等等诸多场景背后都有算法的支撑。然而,当前人工智能被人们诟病最多的问题之一也是算法,因为看似客观的算法也会产生主观的偏见。一些书籍和杂志也对算法偏见带来的歧视问题进行了深入的探讨。

 

探讨算法歧视的书籍与杂志

种族歧视一直是算法歧视中一个热议的问题。2015年,Google Photos使用的图像分类器将一名黑人女性“归为”大猩猩(Gorillas)类别。随后谷歌立即致歉,并声称将立即改进算法解决问题。但是两年过去了,有研究人员发现,谷歌解决问题的方案是将“gorilla”从标签词典中删除。也有研究人员分析,出现这种问题的原因是图像数据中没有过多黑人的照片标注导致的。

 

人类变猩猩

曾有一篇论文发表了一种算法,声称可以将模糊的照片秒变清晰,并且细节丰富,但是该算法却将一张黑人照片处理后变成了白人的照片。因此不少人认为该算法产生了严重的种族歧视。卷积网络之父杨立昆认为,造成这一“歧视”的原因是因为数据的偏差造成的。确实,结果之所以“偏向”白人,是因为在训练算法时,图片库大部分是白人照片。

 

黑人变白人

性别歧视也是算法歧视的典型案例。在招聘过程中,人力资源要面对海量的简历,因此他们利用人工智能技术帮助甄选。然而,人们很快就发现算法对女性产生了偏见,这样的公司不在少数,甚至像亚马逊这样的巨头公司也被指出算法的性别歧视。亚马逊公司算法之所以被指控性别歧视,一个主要的原因是过去的简历库中的数据大部分是男性。

亚马逊取消了显示对女性有偏见的秘密AI招聘工具

人工智能对一些职业也有性别的“刻板印象”。一篇文章中给出了以下图片,每张图片都与一张描述情况的表格配对,结果人工智能将某些男性识别成了女性,只因为他们所处的环境是厨房或者是正在做着家务。

性别歧视

正如麻省理工学院的一位研究员Joy Buolamwini所说,数据是人们教机器学习的工具,当使用的数据出现严重的偏差时,所得到的结果也会出现严重的偏差。人工智能虽然是前瞻性的,但是数据确实是对历史的反映,所以这些过去的偏见会隐藏在新的算法之中。

算法就像一个懵懂的小孩,一张白纸,近朱者赤近墨者黑。微软在2016年曾经开发出一个人工智能聊天机器人Tay,由Twitter发布。Tay以一个19岁美国女孩的说话方式与人们进行交互,然而意想不到的是她很快就学坏了,变成了语言偏激、具有煽动性和攻击性的“坏女孩”。仅仅16个小时,微软就迅速“撤回”了Tay。

在2021年第8期《环球》杂志的《“黑箱”中的算法歧视》一文中,还列举了算法带来的价格歧视、身份性歧视、就业歧视、教育歧视、信贷歧视和刑事司法歧视。其实,很多歧视的背后,是因为人的偏见在先,才导致算法训练以及最终结果呈现出了更严重的偏见。

2.数据隐私

如今,智能家居对人们来说早就已经不再陌生,人们在感受智能带来便利的同时,往往会忽视其背后的安全问题。亚马逊旗下的一款音响产品就曾多次被暴露出收集用户语音信息的丑闻。一些收集上来的语音信息被公司用来分析客户的偏好,并将其标记、归类以便日后留作他用(其实,一些收集上来的含有私人空间信息的照片也往往被用作偏好分析)。

利用一些人工智能技术,如Deepfake等,可以实现以假乱真的视频“换脸”。2019年,一款名为ZAO的软件借着“仅需一张照片,出演天下好戏”的口号迅速走红,然而不到3天就被相关部门约谈,最后遭遇下架处理。英国的《Economist》杂志还对此事进行了评论。

ZAO软件事件引发英国《Economist》杂志关注

2021年的315晚会上,曝光了一些商家利用人脸识别监控摄像头对人们数据进行非法采集的现象。当人们进入装有这种摄像头的店面时,性别、年龄甚至当时的心情等信息就被采集,但消费者对此却毫不知情。在人工智能时代,人脸等这样的个人生物识别信息已经成为很多人登录不同设备的密码,如果泄露,将会危及人们的信息和财产安全。2020年3月6日由国家市场监督管理总局国家标准化管理委员会正式发布的《信息安全技术个人信息安全规范》中就将个人生物识别信息(个人基因、指纹、声纹、掌纹、耳廓、虹膜、面部识别特征等)列为个人敏感信息。

《信息安全技术个人信息安全规范》

中小学阶段,一些老师在教授人工智能课程时,往往将关注点放在技术上。当然,这点在感受人工智能技术,培养学习兴趣方面无可厚非,但是笔者希望老师们能在传授相应的知识同时,再进一步以伦理的视角让学生了解技术带来的问题。笔者在相关师资培训时,就反复强调“技术实现+伦理反思”需要同步。比如,从2010年“奥巴马踹门事件”到现在的人工智能合成的超逼真奥巴马讲话视频,当感叹人工智能“换脸”技术的同时,是否能够告诉学生们这些视频背后所面临的风险?正如华盛顿大学一位教授所说,我们开发的技术每个技术都可能被用在一些不好的方面,我们应该努力确保它不会发生。

奥巴马踹门事件

 

能力越大,责任越大,在掌握了一定的人工智能技术后,教师们一定要告诫学生们注意自己的行为举止。一些高中生窃取隐私数据,有的被不法分子利用,有的则因为贪图一时刺激好玩,被捕时悔之晚矣,因此在学习人工智能的同时,伦理的强化也需要跟进。

3.可解释性

我们从小就被告之“知其然知其所以然”。然而,一些人工智能的算法,很难做到知其所以然。下面的两幅图中分别给出了人工智能进行手术以及医生进行手术的场景,假如你被告之人工智能手术成功率略高于人类,但是整个过程完全不可解释,你会选择人工智能手术还是可解释的医生进行手术?

人工智能VS人类手术

可解释人工智能(Explainable AI,简称XAI)一词源于美国国防部高级研究计划所的项目,是指解决方案的结果可以被人类理解的人工智能技术,这与某些机器学习中的 "黑箱"概念形成鲜明对比。

人工智能中使用的算法可以被区分为白箱和黑箱机器学习(ML)算法。白箱模型提供的结果对该领域的专家来说是可以理解的,而黑箱模型即便是领域专家也很难理解。

XAI算法需要具备透明性(Transparency)、可解释性(Interpretability)和可说明性(Explainability)三个原则。透明性主要是说建模及训练的过程可以被设计者描述和驱动;目前学界对“可解释性”的解释上仍没有达成一致,但以人类理解的方式呈现决策依据这种说法是接受度最高的;可解释性更多的是针对白箱来说,而可说明性则是针对黑箱,指事后能够利用某些方法对生成的结果进行一定程度的解释。

黑箱与白箱

以神经网络为例,一般超过6层就已经可以被认为是深度学习了,尽管与上千层的网络相比层数不多,但是此时已经很难解释各神经元是如何协作完成具体任务。深度学习虽然作用很大,然而这种不可解释的、需要一定建模经验的特征常常被人调侃作“炼金师”、“老中医”或是“调参侠”。下图尽管有些玩笑的成分,但也说明了一些问题。张钹院士就曾提出,可解释、可理解是人工智能研究的主攻方向。

小结

人工智能不仅仅需要学习知识和锻炼技能,更重要的是在学习之初就以伦理为指导,树立正确的价值观,这点在中小学阶段尤为重要。然而,纵观目前的中小学人工智能教材,伦理的篇幅占比相对薄弱,一些教材不过简单提及,还有些教材甚至毫不涉及。笔者以为,这样的人工智能课程无疑是有缺失的。

人工智能的伦理可以说贯穿了人工智能的各个方面——数据的采集、标签化,再到建模、训练以及结果的解释,均涉及伦理的问题。伦理课不但要上,甚至可以考虑先上,这样学生可以辩证的看待人工智能,从源头上培养中小学生的伦理责任意识。

人工智能伦理涉及的内容广泛,本文从强/弱人工智能概念开始,讨论强人工智能伦理的相关内容,抛出了令人深思的AI电车难题困境,最后讨论了弱人工智能带来的一些伦理问题。在之后的内容中,笔者还将继续探讨人工智能引发的社会问题,如替代工作、安全责任、公平等,以及一些较为前沿的脑机接口、人类身份认同、机器人人格、人机共存等问题。同时,下文也将分享一些相关人工智能伦理读物、影视作品以及笔者授课过程中的心得体会。