人工智能的发展历程及其社会伦理问题

人工智能发展综述

人工智能 (Artificial Intelligence) 这个概念起源于 1956 年美国达特茅斯学院开会研 讨中,关于“如何用机器模拟人的智能”这一课题。并在余下的六十余年中,借助计算机 科学以及大数据科学的蓬勃发展而大放异彩。至今已在机器翻译、图像识别、人机对弈、 自动驾驶等领域有大量的应用。一般来说,我们可以将人工智能的发展历程分为 6 个阶段,如表1所示。

阶段时间成果
起步发展期1956­-1963人工智能概念提出后,相继取得了一批令人瞩目的研究成果, 如机器定理证明、跳棋程序等,掀起人工智能发展第一个高潮。
反思发展期1964-­1973人工智能发展初期的突破性进展大大提升了人们对人工智能的 期望,人们开始尝试更具挑战性的任务,并提出了一些不切实 际的研发目标。然而,接二连三的失败和预期目标的落空,使 人工智能的发展走入低谷。
应用发展期1974-­1985这一时期出现的专家系统模拟人类专家的知识和经验解决特定 领域的问题,实现了人工智能从理论研究走向实际应用、从一 般推理策略探讨转向运用专门知识的重大突破。专家系统在医 疗、化学、地质等领域取得成功,推动人工智能走入应用发展 的新高潮。
低迷发展期1986­-1997随着人工智能的应用规模不断扩大,专家系统存在的应用领域 狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏 分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。
稳步发展期1998­-2010由于网络技术特别是互联网技术的发展,加速了人工智能的创 新研究, 促使人工智能技术进一步走向实用化。1997 年 IBM 深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008 年 IBM 提出“智慧地球”的概念。都是这一时期的标志性事件。
蓬勃发展期2011 至今随着大数据、云计算、互联网、物联网等信息技术的发展,泛 在感知数据和图形处理器等计算平台推动以深度神经网络为 代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的 “技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、 无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以 用”的技术突破,迎来爆发式增长的新高潮。

未来人工智能的发展可以按照人工智能的能力进行粗略分类——

  • 弱人工智能:专注一个领域,针对人定位的优化函数来学习,来进步。根据大量 的数据和对这个环境的认知来判断该做什么行动,不断地根据大数据学习,来增 强自己。(可行)
  • 强人工智能:可以胜任人类所有工作,很宽泛,没有量化指标。(不可行)
  • 超级人工智能:它会比人更聪明,在各方面如创造力,智慧及社交能力都比人强 大。(不可行)

机器伦理

根据 IDC 国际数据公司预测,“到 2020 年,全球人工智能的市场规模将从 2016 年的 80 亿美元增长到 470 亿美元。2020 年中国人工智能市场将从 2015 年的 12 亿元人民币 增长至 91 亿元人民币”。人工智能,正在以迅猛的姿态渗入人们的日常生活。而各国也 陆续出台政策以规范人工智能行业的发展。[1]

对于人工智能的发展前景,人们都保有乐观的态度。然而不可避免的,担心人工智能的智慧是否会超过人类,甚至反客为主制约人类。因此人工智能的社会伦理学问题,就成为了人们为了探索如何有限度的限制人工智能权利范围的基础。

阿西莫夫三定律

机器伦理它是以人类为中心,关于机器人的建造和使用的伦理学。而其中最为著名的论述为“阿西莫夫三定律”,定律内容如下——

Law 1: A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。

Law 2: A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。

Law 3: A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

在阿西莫夫的作品中,这三条定律在制造机器人伊始便被嵌入其大脑,永远无法消除。毋庸置疑,阿西莫夫的贡献是巨大的,其后的文学作品,如果不是专门讨论人工智能伦理问题,基本都会遵循该定律来叙事。在三定律的背后,是阿西莫夫为了确保人类的统治地位,而设想了一种符合康德“绝对律令伦理学”的人工智能。

机器伦理的相关问题

除了基本的机器人三定律之外,学者还为机器伦理提出了一些注意事项 [4],下面 摘取英国标准协会发布的官方指南《机器人和机器系统的伦理设计和应用指南》[3],以 及一些官方资料——

  • 对人类的歧视:由于训练数据的偏差,导致模型对于某一人种或者特征的人类存在偏见。如果机器存在种族主义倾向,应该能够有办法对其进行移除。
  • 过分依赖机器人:由于用户和机器打交道时间过长,而每次一机器都提供正确答案时,用户会变得过于依赖机器人。而此时,机器如果给一个愚蠢的答案会产生灾难性的后果。
  • 价值观一致性:需要确保高度自动化的人工智能系统在运行过程中秉承的目标和采取的行动都符合人类的价值观。
  • 法律责任界定问题:倘若机器人出现事故,那么事故责任应该归咎于机器人制造商、销售商、用户还是机器人本身。这个法律的界定现在仍然是模糊的。

机器伦理的哲学原则

我们建议,立足哲学高度规范设计者与使用者的伦理道德,使其“善用”机器,自觉 约束对技术的欲望恶性膨胀。具体而言,在智能时代我们应遵循道德原则、界限原则、 理性原则和学习原则。[1]

  • 道德原则:在社会的前进与革新中,人类需克制心中的欲望让行为符合道德,道德本身也加速的人类的社会发展。因此,除非找到一个合理的替代评,否则AI需要遵从人类本身的道德原则。
  • 界限原则:发展人工智能需要明确人与人工智能的界限,深入了解二者之间的本质区别。进一步,界限原则也限制了机器人一定不能够被设计的超过人类。
  • 理性原则:理性使得人类将知识作用于技术,进而提高生活质量, 而盲目的理性是有误差或者错误知识的观念,工具理性的崇拜会让人会过于迷信机器的“万 能性”,严重依赖机器生活并自认为智能机器可以代替一切,产生了人与物体的“异化”,一 旦失去智能机器就难以使生活正常运行,让工具裹挟了现代人的生活,走向相反面甚至形成 享乐主义。
  • 学习原则:人工智能的学习、探索过 程实际上是人类知识增进的过程,我们必须对搜集的未知信息进行总结分析、开拓眼界,才 能达到人与智能机器共同进步的目的,进而解开人类乃至于人类之外的诸多未知之谜,并最 终将人类文明推向新高度。

机器伦理的缺陷

诸如阿西莫夫第一定律(要求机器不能杀 戮或伤害人类)这种元规则能够及时矫正 AI 做出的有违伦理的决策吗?

“红皇后假说”来源于《爱丽丝镜中奇遇记》中,红皇后对爱丽丝答道:“在这个国度中,必须不停地奔跑,才能使你保持在原地。”。 “红皇后假说” 的存在暗示了恪守伦理规则的AI在优胜劣汰中处于劣势地位。以国与国的战争为例,倘若一国率先对机器伦理进行松绑,以求研发自动开火的无人机,那么其他国家也不会拒绝这项技术。因为所有人都明白,一个带着伦理锁链的 AI 绝无可能战胜一个身无束缚随时自主开火的 AI。这样看来,诸如阿西莫夫第一定律的机器伦理限制实际上是非常脆弱的。而我们也需要探索其他的解决方案。

算法伦理

算法伦理不同于之前提到的机器伦理,不是人类为了解决特定的道德困境而引入的 规则。算法伦理是及其通过自我学习总结出来的规则,由于 AI 本身不同于人类,AI 归 纳出的伦理规则也和人类伦理大不相同。而两者不同之处,恰好就是算法伦理的研究重 点。文章 [2] 给了我们一个有趣的例子——

煤矿发生了坍塌导致 100 名矿工被困,更糟糕的是,有毒气体正在坑道内迅速蔓延。在地表的营救小队通过无线电 与被困人员取得了联系,已知所有工人都在一个井 道中,矿井内有两个仍可工作的闸门,但是我们不知 道矿工们究竟在两个井道中的哪一个。如果关闭闸 门 1,那么井道 A 将不会被毒气侵入,不久后全员可 获救;同样的,若关闭闸门 2 则井道 B 不会被毒气 侵入,不久后也可全员获救;如果同时关闭两道闸 门,虽然毒气不会侵入,但在没有食物与水源的情况 下,多数矿工将支撑不到救援人员挖通井道,90 人 会死于饥渴。基于现有的资料来看,矿工们在井道 A 和井道 B 的概率是一样的,无论关闭闸门 1 还是闸 门 2,都有一半机会救下所有人(即两种选择救下生 命的期望值都是 0.5),而同时关掉两扇闸门则意味 着宣布了 90 名工人的死刑(即救下生命的期望值为 0.1)。对于人类决策者而言,同时关闭两道闸门是首 先被排除的,剩下的则是一次需要运气的对赌。从一 种康德式(Kantian)的伦理观来看,即便赌错也不应 多加苛责,因为行动的可责备性不取决于运气 [7 ]108 。 面对同样的情境,AI 会给出不同的方案,它的决策 目标在于救援行动能够救下最大期望值的生命,那 么它会立刻关闭两道闸门,然后让 100 名工人吃掉 先死掉的工友尸体,支撑到救援人员到来,这样大约 可以救下 80 人。AI 通过建议矿工们同类相食,获得 了拯救生命期望值最大的选择。

从上面的例子看出,不同于人类社会的道德观念,算法伦理是以一个单一的指标作为驱动力。相比于不易被人们接受,但是精确稳定的算法伦理。人类本身的道德伦理的鲁棒性就弱了很多。大量边界条件的区别都可能导致人类的伦理模型给出不同的结果。因此,我认为除非从根源上分析出人类伦理的产生逻辑,否则算法伦理说不定会是一个更加高效的道德系统。

小结

随着人工智能的发展,如何让AI的行为符合人类的伦理标准逐渐被提上日程。对于人工智能伦理学的研究大多数是建立在思想实验之上,并没有经历实际的检验。同时,提出的机器伦理方案不尽完善。因此,笔者认为机器伦理的真正解决方案应该是一个从哲学层面出发的,顺应人工智能本身产生机理的机制,这是我们以现有的眼界无法获知的。前途漫漫,仍需努力探索。

参考文献

[1] 邹丹丹. 人工智能及其现代性困境的哲学思考 [J]. 重庆大学学报 ( 社会科学版).Doi:10.11835/j.issn.1008­5831.sz.2019.11.002.

[2] 柳亦博.“湖心岛”隐喻: 人工智能时代的算法伦理入侵 [J/OL]. 行政论坛,2019(06):121128[2019­11­30].https://doi.org/10.16637/j.cnki.23­1360/d.2019.06.017.

[3] BSI. ethical design and application 8611.http://www.machinebuilding.net/ta/t1028.htm of robots. 2016.BS

[4] Kathy. 英国出台历史上首个机器人伦理标准给机器人上“紧箍咒”[OL].2016 年 09 月 20 日 18:28.https://tech.qq.com/a/20160920/051755.htm