人工智能设计的风险及其规避

上传人:zou****hua 文档编号:179869505 上传时间:2023-01-03 格式:DOCX 页数:8 大小:22.82KB
收藏 版权申诉 举报 下载
人工智能设计的风险及其规避_第1页
第1页 / 共8页
人工智能设计的风险及其规避_第2页
第2页 / 共8页
人工智能设计的风险及其规避_第3页
第3页 / 共8页
资源描述:

《人工智能设计的风险及其规避》由会员分享,可在线阅读,更多相关《人工智能设计的风险及其规避(8页珍藏版)》请在装配图网上搜索。

1、人工智能设计的风险及其规避作者:闫坤如来源:理论探索2018年第 05期摘要 随着人工智能的发展,其所引发的风险与责任问题倍受学界关注。人工智能带来的 风险与人工智能设计有较大关联。从理论上来讲,人工智能设计应思考人工智能是否具有道德 行动者地位和“道德嵌入”的合理性等问题。人工智能设计目的与实际结果的不相符,人工智能 设计目的与使用者需求不相符,人工智能设计技术的不完备等都会带来风险。为解决人工智能 设计的风险问题,其设计的目的应彰显“善”的理念,设计过程中应关注正义与公平,强调设计 者的责任意识。关键词 人工智能,设计风险,道德嵌入,责任意识中图分类号N031 文献标识码A 文章编号100

2、4-4175 (2018) 05-0022-05人工智能在21世纪不断取得理论和实践突破,成为最有前景的新兴技术之一。但是一些 智能机器在实际应用过程中却造成了意想不到的后果,带来了许多风险。由于技术的双面性, 人工智能技术的不确定性,人工智能的应用可能违背人工智能设计者的初衷,这些原因都可能 导致人工智能风险。例如,无人驾驶汽车是为了解放双手,却可能潜藏着安全问题;云计算为 了数据挖掘统计方便,却存在隐私泄露的风险,等等。人工智能可能带来的这些风险与设计主 体意愿、设计目的与设计结果的偏离等有密切关系。一、人工智能设计的理论基础人工智能设计与制造的结果是产生具有自我推理能力的智能机器,对其风

3、险的研究应该基 于对人工智能设计理论基础的挖掘,我们主要从人工智能是否是道德行动者以及人工智能“道 德嵌人”的合理性进行分析。(一) 对人工智能是否具有道德行动者地位的思考。随着智能机器在技术方面不断取得新 的突破,智能机器的深度学习、面部表情、语音识别、大数据和云计算处理速度等能力的不断 加强和运用,智能机器在社交、知觉、创造力、自然语言理解等能力上的不断突破,可以说机 器越来越像人。那么,智能机器是否像人类一样具有道德主体地位呢?人工智能的功能由人工 智能的算法决定,智能机器通过算法对环境中的数据进行分析,从而作出相应的决策并表现出 同样的行为。“可以看出这种方法并未假设计算机和大脑在硬件

4、上的相似会超出这样一个范 围,即认为两者都是通用的符号处理装置,而且能为计算机变出程序进行一些基本的信息处 理,使他们的功能与大脑十分相似。”19人工智能不仅仅是伦理规则的被动中转者,还在现 有道德生态中与其他实施者互动。如何权衡机器人及其生物的生存地位等伦理问题将成为规范 与约束人工智能设计的一个重要方面。人与机器有本质的区别,人具有理解能力,而机器不具有理解能力。人具有意向性,机器 不具有意向性(intentionality)。“意向性被看作是区分个体的人与机器的根本特征之一:机器 和人可以做同样的事情,但是人有意向性,而机器没有。”210意识只是脑的一种属性,机器 与人类可以具有相同的功

5、能,但是机器没有意向性。即使人工智能不是道德主体,但是人工智 能与人类可以具有共同的行为。如果人工智能获得与人类相近或者相同的思维能力和推理能 力,界定人工智能和人类的道德地位也会成为难题。例如,机器学习与图像识别技术让无人驾 驶汽车轻松上路,却带来机器设计道德上的伦理困境等。人类行为具有复杂性,并不能简单地 还原为大脑的结构,人类的大脑到现在为止还是一个未知的“黑箱”。人工智能技术改变了传统的人与技术的关系。美国技术哲学家唐伊德(Don Idle)在其 技术与生活世界一书中从人对技术的感知出发,用“人一技术一世界”的结构分析三者的关 系问题,提出了人与技术的具身关系、诠释学关系、它者关系和背

6、景关系,构成了四种技术情 境下的人、技术与世界的互动关系图式,分别是372-112:具身关系:(人一技术)-世界诠释学关系:人-(技术一世界)它者关系:人-技术一(一世界)背景关系:人(技术/世界)伊德认为: “越接近于技术所允许的隐形性和透明性,就越能扩展人的身体感觉,就越是 好的技术。值得注意的是,设计的完善不仅仅与机器有关,还与机器与人的组合有关。机器沿 着一个身体的方向完善,并且是根据人的感知和行为塑造的。 ”374设计者在人工智能中占有 重要地位,因此,必须关注智能机器的设计主体。(二)人工智能设计“道德嵌入”的合理性分析。人工智能不同于其他技术人工物的研究, 人工智能研究不仅关注设

7、计、制造主体的责任,更应思考人工智能是否具有道德意识,并且应 关注如何在人工智能中嵌入与人类主体相似的行为伦理规范。因此,应该在计算机程序中嵌入 人类道德,像约束人类行为一样约束人工智能的行为。人工智能设计不是一个闭环系统,对于人工智能的价值反省与伦理追问处于发展阶段。如 何让人工智能像道德主体那样去行动以及如何为人工智能编写道德代码也纳入哲学学者的视 野。例如,丹尼尔森在其著作人工道德:虚拟游戏的道德机器人(Artificial Morality: virtuous Robots for Vitual games)中关注入工智能的道德问题;2007年霍尔撰写的超越AI: 让机器产生良知(Be

8、yond AI: Creating theConscience of the Machine) 书,关注设计道德 机器:瓦拉赫与艾伦撰写的道德机器:如何让机器人明辨是非(Moral Machines: Teaching Robots Right fromWrong),试图从道义论、效果论和美德伦理学讨论人工智能体的 道德问题。旧式的技术哲学家多半是被动反应,新一代技术哲学家主动出击,力图使工程师们意识到 技术设计带来设计进程的价值,并希望以此去影响技术的价值与设计。人工智能的价值可以从 外在性与内在性两个层面去分析。人工智能的外在价值表现在人工智能对公共福祉的贡献,内 在价值表现在人工智能技术

9、如何形成它对人类的意义。对人工智能设计具有两种不同的规范进 路:一种是职业伦理进路,这是一种外在主义进路”,还有一种由荷兰技术哲学家普尔(Ibo van de Poel)等人提出的“内在主义进路”,即人工智能设计“致力于关于技术发展的一种更加内 在主义、经验性的观察,考虑设计过程本身的动态性并探讨该语境下产生的伦理问题”4。学 者也从内在主义进路寻找解决传统伦理问题或者新伦理问题的途径。例如,弗里德曼(Batya Friedman)与卡恩(Peter Kahn )在 1992 年提出价值敏感性设计(Value sensitive design )。设 计者在设计时应保持对技术价值的敏感性,在技

10、术设计中将道德嵌人其中。人工智能设计也需 要“道德嵌入”。所谓“道德嵌人”是将特定群体认可的价值观与道德标准程序化为道德代码,嵌 入人工智能系统,同时内置道德决策场景的指导性抉择标准。对智能系统进行道德训练,使其 具备类人的道德推理能力,并利用机器学习算法投射使用者的道德偏好。设计者越来越意识到 自身的价值观对设计进程的影响,以及在此过程中他们对于他人价值观的敏感度。设计者在设 计想象阶段就应负载价值,应保持对技术价值的敏感性,在技术设计中嵌人道德。在人工智能 设计之初就应该赋予其“善”的设计理念,在设计之始把“善”的观念嵌入到智能机器中。二、人工智能设计带来的风险分析设计是一个问题解决过程,

11、或者说是一个决策过程,是设计主体根据自身需要,有意识地 创造出技术人工物的过程。设计不但是科学知识的获取与应用过程,还是新物体的技术发明与 创造过程。西蒙(Hubert A Simon)提出:“(设计)考虑的是人工物(artifacts)应该是怎样 的,也就是什么样的人工物才能实现目的,才能发挥其作用。 ”54-5人类技术行为的主要结 果是设计和制造各种人工物。设计具有两个属性。首先,设计是为了达到设计者某一方面的目 的。设计望远镜是为了观察浩瀚夜空;设计情感机器人是为了满足人类的情感需求;设计无人 驾驶汽车是为了安全以及在驾驶中解放人类双手等。其次,设计体现了主体的意向。在设计主 体设计之前

12、就有了设计理念与设计思路。冯赖特(von wright)也提出从设计主体的目的与意 向等方面去阐释设计逻辑。赖特认为:如果把x称为目的,而y是实现目的的手段与行动。那 么设计可以用如下表达式表示:“某人想得到x除非得到y,否则不可能得到x,因此必须得到 y”6。按照赖特的观点,设计就是为了达到主体的目的而进行的一系列活动。设计必须遵循自 然界的规律,违背物理规律就不能制造出人工物,人工智能的设计也不能违背自然界的规律。 人工智能的设计是通过工程师、程序员编写、设计程序、算法的输人,使设计出来的人工智能 产品彰显设计者的目的,在设计、制造过程中必须遵循这些科学规律。人工智能设计不当会给个人和社会

13、带来风险,小则造成经济损失,大则威胁社会稳定与生 命安全。人工智能风险与设计息息相关,并且可以把设计作为人工智能的风险根源。人工智能 设计风险主要体现在以下几个方面。(一) 人工智能设计目的与实际结果的不相符带来的风险。人工智能在制造之初先有设计 理念与设计思路,设计者为了达到目的,在设计中把人工智能的工具理性与价值理性结合起 来。也就是说,人工智能在设计之初已经负载了设计者或者设计团队的意愿与愿望。人工智能 产品的设计离不开设计者的努力,设计程序与算法凝聚着设计者的心血和智慧,但是并不是所 有的设计者都是“完人”。由于受设计者或者设计团队偏见、错误认知、价值判断及利益追求等 因素的影响以及设

14、计的算法存在技术缺陷等,所设计出来的人工智能产品可能存在一定程度的 缺陷。人工智能风险很多时候源于设计之初的程序错误或者算法误差。例如,特斯拉自动驾驶 汽车造成人员伤亡就是因为其设计的程序存在漏洞,人工智能系统在设计阶段的错误导致人工 智能风险的产生。人工智能技术除了需要探索与客观真理的关系,还包含着人类目的性的社会 建构活动。伽达默尔曾经说过:“20世纪是第一个以技术起决定作用的方式重新确定的时代, 并且开始使技术知识从掌握自然力量扩展为掌握社会生活,这一切都是成熟的标志,或者也是 我们文明的标志。”763设计具有目的性,但设计者的初衷和设计出来的产品的实际使用情况 并不是完全一致,有时甚至

15、大相径庭。例如,汽车的设计者与使用者没有想到汽车的使用会发 生交通事故以及环境污染等问题,但是汽车设计与使用确实导致交通事故与环境污染。(二) 人工智能设计目的与使用者需求不相符带来的风险。技术不但促进了人类进步,还 改变了人类的生产生活方式。人工智能技术作为新兴技术具有不确定性,对此可以理解为人工 智能技术后果的难以预见性以及难以量化评估性。人工智能的技术风险还可能是由于人类的有 限理性所致,人类对于风险预测、评估与风险发生的客观概率之间存在偏差。人工智能风险源 于设计者的有限理性。人工智能产品的设计一般是根据市场需求、设计者的能力、使用者的需 要等因素复合而成的。设计者和使用者通过人工智能

16、产品实现一种特殊的“互动”,设计者可以 有意地引导使用者使用某些功能或者避免使用某些功能。如在人机交互界面优先推荐本公司的 产品。设计者通过使用者的意见和反馈,对算法和程序进行修改,从而实现一个良性互动。但 是这种互动往往并不能真实反映使用者的意图,相反在很大程度上是设计者意图的强化,因为 存在所谓的“设计黑箱”,设计者对设计出来的人工智能不能准确预测与评估。(三) 人工智能设计技术的不完备带来的风险。人工智能的功能与设计者的目的有关,设 计者的目的是设计出人工智能的物理结构,让智能机器具有一定的功能,满足人类某一方面的 需要。“功能描述自身与结构描述自身都不能完整地描述一个技术人工物的设计;

17、功能设计忽 视结构设计的同时,结构设计也缺少了功能设计特性,这就表明在描述人工物时,结构与功能 特性都是工程实践中必不可少的。”8其他设计遵循结构功能关系,人工智能设计的特殊性, 自身有推理能力,智能机器拥有前所未有的自主性,并且拥有能够独立作出决策的能力。美国 机器伦理学家帕特里克(Patrick Lin)认为机器具有“自制能力”,他说:“一旦机器的一部分启 动,那么该机器就根据外部环境进行自我反馈运行,而具备在一定时间内不受外部控制的能 力。”8智能机器具有不完全受制于人的自主性,人工智能的算法与程序可能带来风险。瓦拉 赫(Wendell Wallach)与艾伦(Colin Allen)在

18、道德机器:如何让机器人明辨是非中提 到: “现今在美国死于医疗事故的人每天有100到200人,而且许多这类医疗事故都与计算机 有关系。这些错误诸如发错药,算错药物剂量,每天都导致100到 200人死亡。我并不确切知 道你们将其中多少人的死因归咎于计算机的错误,但是这个原因占有一定比例,可以肯定地 说,每隔两到三个月我们死于计算机错误和医疗事故的人数就抵得上一次9.11。”922通过 上述例子可知,人工智能的算法错误或者程序错误等可能造成风险。三、人工智能设计风险规避的思路(一)人工智能设计的目的应彰显“善”的理念。智能机器是为了满足人类某方面的目的, 人工智能设计应首先保证智能机器更好地为人类

19、工作与服务,这优先于智能机器的工作效率与 功能。人类与智能机器之间的关系不再是过去简单的人与技术人工物之间的主客二分关系,而 更多的是协作甚至更私密的关系。由于人类思维和情感的复杂性和多元性,人机关系并不是一 个简单的课题。机器人技术要想处理好人与世界的关系,必须把道德嵌人机器人的设计、研发 与制造过程。必须用“善”的理念设计智能机器,约束与规范智能机器的发展。阿西莫夫(IsaacAsimov)最早提出用“机器人三定律”来规范智能机器发展:“机器人不可以伤害人类; 或者,通过不作为,让任何人受到伤害;机器人必须遵从人类的指令,除非那个指令与第一定 律相冲突;机器人必须保护自己的生存,条件是那样

20、做与第一、第二定律没有冲突。”102 后 来又加上第四条准则:机器人不得伤害人类,或者因为不作为,让人类受到伤害。阿西莫夫机 器人定律是康德式的道德律令,认为人类应该制定需要智能机器遵守的道德准则,这是一种自 上而下的伦理规范方法。所谓自上而下的伦理规范方法是把规范化的价值观当作在自主体的活 动中隐含的内容,而不是被抽象地表征出来。除了自上而下的伦理规范,还需要根据人工智能 的具体情境设计相应的伦理。通过自上而下与自下而上的伦理规约共同作用,规范人工智能的 设计。人工智能很大程度上取决于程序与算法学习模型的设计水平,在设计中必须把价值转成 具体的设计要求。“设计中实现价值的一种方式是将它们转换

21、为规范和设计需求。”11253设 计的具体要求包括效能、效率、灵活性、成本与安全等指标。设计过程需要遵循价值观、规范 与成功等标准。(二)设计过程中应关注正义与公平。1980年,温纳(Langdon Winner)通过罗伯特莫 斯(RobertMoses)在美国长岛设计的低悬立交桥来阐述设计公平问题,这座桥只可以通过富 人的私人轿车,而不能通过大巴车等公共交通工具,这涉及对习惯乘坐公共交通工具的黑人的 歧视。通过这个例子温纳提到了设计公平问题,在人工智能设计中应该关注正义与公平。人工智能设计应该关注机会平等。机器人不再是简单工具,在机器人的设计中应该关注责 任伦理,其中正义原则是机器人设计始终

22、需要贯穿的一个重要原则。机器人的设计要关注公平 和正义。机器人设计不应造成扩大主体间权利、地位上的差距,导致实际上不公平和不正义。 如无人机的技术设计、生产需要大量的成本,导致价格昂贵,并非所有人都能享受该项技术的 成果,这会导致公平性丧失;使用无人机送快递等会造成现有快递从业人员的就业机会不公 平。罗尔斯(John Rawls)提出:“所有值得我们注意的伦理学理论都须在判断正当时考虑结 果,不这样做的伦理学理论是奇怪的和不可理喻的。 ”1223人工智能设计也应该追求技术结果的公平、正义。它包括技术获取途径的公平正义,人工 智能涉及不同人群的不同利益,机器人的设计中要确保机器人的设计目的是为了

23、人类的整体利 益而不是某些个人或者集团的利益;人工智能使用致力于大部分人的利益而不是少数人的利 益。人类有责任与义务为人工智能设计制定规则,约束设计者在设计之初考虑到人工智能的社 会影响,避免因为人工智能的应用拉大人与人的差距,造成人与人之间的不公平,避免造成社 会风险。(三)人工智能设计应强调设计者的责任意识。人工智能技术设计必须关注设计者信念、 行为以及设计者在技术实践中的作用与责任等研究主题,设计者在人工智能技术发展中不能置 若罔闻,更不能袖手旁观。“伴随着技术的发展,需要设计师的全程参与,寻找道德反思的应 用,并期待技术设计的社会影响。这种类型的道德规范参与技术发展,而不是将自身置于技

24、术 范畴之外。”13智能机器的设计者要对可能出现的技术负面效应作出足够的论证,也要充分考 虑人工智能技术发展带来的伦理困境,考虑到智能机器的运用过程中不可避免地会面临道德困 境。如何使智能机器在面临类似情形时作出最有益于人类的抉择,是设计者们要提前考虑的问 题。因此,人工智能设计和制造应遵循职业道德与社会公德。除了强调个人的责任意识之外,还要发挥行业协会与国际组织的作用。美国电气与电子工 程师协会(IEEE)、美国职业工程师协会(NSPE)、美国机械工程师协会(ASME)以及美 国的伍斯特理工学院机器人工程师职业伦理(WPI )都提出人工智能设计的职业伦理规范。在 这些行业规范中,都认为工程师

25、应具有诚实、公正等职业美德,都应该关注安全、健康和公众 福祉。例如,2002年电气与电子工程师协会给出了机器人的伦理规范:第一个分支为机器伦 理学(machine ethics),研究的重点为“赋予机器人伦理原则或者促进机器人解决可能预见的 伦理困境,在机器人自主作决定的时候,提高他们的道德考量比重”141;第二个分支为机器 人伦理学(robot ethics),主要关注入类在设计、使用操作过程中与机器人交流互动中的伦理 问题。 2017年1月,美国召开的“阿西洛马会议”提出了阿西洛马人工智能原则 , (Asilomar AI Principles)规范人工智能的发展。阿西洛马人工智能原则要求

26、人工智能设 计的伦理应该追求技术结果的公平、正义,包括人工智能技术获取途径的公平正义,人工智能 涉及不同人群、不同利益相关者的不同利益等,必须先保障公平与正义才能规避社会风险。人 工智能设计主要涉及三个维度的问题:“首先,是人类创造和雇佣机器人的伦理;其次,是将 人类的伦理观念嵌入机器人当中;第三,是人类如何看待智能机器人的伦理。 ”15处理好人工 智能研制、设计以及正确对待人工智能产品的关系,才能有效地规避风险。人工智能设计应关 注入工智能的设计和制造应遵循的伦理准则。荷兰技术哲学家维贝克(Verbeek, P.P)提出技 术对人类行为有调节作用,设计活动天然包含一种伦理导向和伦理意义,因此

27、,人工智能的设 计也包含了道德伦理的因素。在人工智能设计过程中就需要将正义等道德因素嵌入机器人的设 计过程当中, “如果伦理学是关于人如何行动的,设计师帮助塑造技术如何调节人的行为,那 么设计应该被视为做伦理学的一种物化形式。 ”1691首先,使人工智能的设计与人类的社会 价值观保持一致;其次,人工智能设计还要研究如何善用和阻止恶用人工智能,使人工智能造 福于人类。综上所述,在智能机器的设计、研制和发展进程中,我们应注重科学与伦理求真与求善的 协调发展,重视设计伦理和过程监控,规范和约束智能机器的发展,保证智能机器技术更好地 为人类所用,使智能机器人更好地服务于人类社会。同时,在机器人研制、设

28、计等过程中应与 伦理紧密联系,重构人工智能责任体系以及建立人工智能伦理规则,注重程序正义和结果正 义。在人工智能发展设计之初就应该为其注入一颗“良芯”,这样才能有效规避人工智能技术风 险与社会风险。参考文献:1Allen Newell, H.A.Simon.Computer Simulation of Hu-man Thinking(M ) .Santa monica: The RAND Corporation,1961.2 玛格丽特博登人工智能哲学M.刘西瑞,王汉琦,译上海:上海译文出版社,2001.3 Ihde D.Technology and the Lifeworld: From Ga

29、rden toEarthM.Bloomington: Indiana University Press, 1990.4 Poel I V D, Verbeek P P.Ethics and engineering designJ.Science Technology&Human Values, 2006(3): 223-236.5 Simon H A.The sciences of the artificialM.Cam-bridge: MIT press, 1996.6 Wright G H V.Practical InferenceJ.PhilosophicalReview, 1963(2

30、): 159-179.7 伽达默尔.科学时代的理性M.薛华,等译.北京:国际文化出版公司,1988.8 ICroes P.Coherence of structural and functional de-scriptions of technical artefactsJ.Studies in History&Philos-ophy of Science Part A, 2006(1 ): 137-151.9 Wendell Wallach &Colin Allen.Moral Machines: Teaching Robots Right from Wrong M.Oxford &New

31、York: Oxford University Press, 2008.10 阿西莫夫银河帝国8:我,机器人M.叶李华,译南京:江苏文艺出版社,2012.11 Poel I V D.Translating Values into Design Require-mentsM.Philosophy and Engineering: Reflections on Pray-tice, Principles and Process.Springer Netherlands, 2013.12 约翰罗尔斯正义论M.何怀宏,等译北京:中国社会科学出版社,1988.13 Verbeek P P.Accompa

32、nying technology: Philosophyof technology after the empirical turnJ.TechnB: Research inPhilosophy and Technology, 2010(1): 49-54.14 Anderson M.Machine EthicsM.Cambridge: Cam-bridge University Press, 2011.15 Asaro P M.What Should We Want From a Robot Eth-ic?J.International Review of Information Ethics, 2006(6): 2-8.16 Verbeek P P.Moralizing Technology: Understandingand Designing the Morality of ThingsM.Chicago and Lon-don: The University of Chicago Press, 2011.

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!