联系我们

 

硕博咨询:82274534

 

专本咨询:84468591

 

微信咨询:essaykey

TEL:15012858052(深圳) 

 

信箱: 82274534@qq.com 

 

请以前的客户主动联系QQ和信箱以方便继续为您服务。

 

代写毕业论文网介绍

本网站是由硕士、博士和高校教师组成的专业代写团队所创办的平台。主要为在校本科生、专科生、硕士生、在 职研究生、单位公司人员、留学生等提供各种专业代写毕业论文服务的网站。提供的写作服务包括:代写MBA论文、代写MPA论文、代写EMBA论文、代写硕 士论文、代写本科毕业论文、代写专科毕业论文、代写研究生论文、代写留学生毕业论文、代写英语论文等等。作为八年的品牌,已经为几万名毕业生服务,让他们 顺利通过了毕业论文的考核。本站负责提纲、开题报告、文献综述以及毕业论文的写作,并提供不限次数的修改服务。所代写MBA论文价格、代写MPA论文费 用、代写EMBA论文价钱都是最实惠的,欢迎咨询!

 

最新加入代写论文写手

YM,机电教授,YMT,日本千叶博士,教授
海豚,英国留学管理博士学历
LB,经济管理博士英国交流
maomao,经济硕士管理博士
陈先生,湖南计算机博士,7年教育经验。硕士研究生导师。
BJX,上海交大计算机博士,发表40多篇核心学术论文,
电子计算机类博士,3人组合
LLBZY,5人,工程,园林,农业生态中科院博士,参与国家重点项目研究
浙大,管理硕士,英语专业硕士
y,男,法学硕士
中国XX大学,会计硕士,英语硕士,管理硕士 各一名
熊,浙江,管理学博士,经济学硕士,擅长管理,金融、宏观经济、区域经济
英语专业硕士,英语,翻译论文
11,硕士,自由撰稿,编辑,经济、法律、品牌
文,硕士,擅长企业管理,行政管理, MBA论文
兰大的硕士,西哲,社科
刘先生,擅长写作金属材料领域的专业论文
澳大利亚摩尔本皇家理工大学的MASTER
医学主治医师,某医学杂志编辑
剑,38,教育学硕士
某核心医学编辑
某中学杂志编辑
R,管理财会硕士,研究员
武汉工程博士,男,土木,结构,水电道路工程等
土木工程硕士,男,35岁,擅长工科土木工程,房建,园林,市政论文
左先生,武大MBA,擅长经济,管理,商业类论文
陈先生,大学本科副教授,英语专业硕士
陆先生,中科院基础医学研究生
杨先生,27岁, 武汉大学硕士,营销管理专业,武汉社科研究员,中国策划研究院协会会员,管理顾问公司总监。擅长经济管理、市场调查、行业研究报告。服务客户有中国银行,中银保险,香港铜锣湾百货等著名企业。
林先生,28,信息专业硕士,计算机研究室主任,国家高级电子商务培训讲师。
周先生,31,国内著名DVD品牌技术总监,重点高校讲师,期间指导学生获得全国电子大赛二等奖,指导老师二等奖。擅长电子类论文。
某艺术工作室,硕士学历,擅长现代艺术美术理论研究及创作。
刘先生,某著名医学院硕士研究生,某著名医学院博士研究生,专业为妇产科护理,以多产,高速,高质量著称。
kerry,北京某著名大学教师,擅长教育类论文。

首页 > 代写论文 > 法律论文 >

基于法理学角度探讨人工智能与法

时间:2019-09-27

  摘要:弱人工智能的思考能力在某些方面已经可以与人相媲美, 强人工智能也可能在不久的将来出现。若将有智力的人工智能视为工具, 可能会贬损理性的重要性;若赋予弱人工智能法律人格, 有可能使其控制者逃避相关责任, 获取不当利益。现行法体系依然坚持人-物二分法, 没有理由将人工智能视为介于人与物之间的特殊主体。理性之外的特征则并非人的本质属性, 无法帮助法官判断是否应当赋予人工智能法律人格。根据对现行法律人格制度的建构性诠释, 应当认为理性 (包括认知能力、意思能力、道德能力) 是人工智能获得人格的充要条件。可以借助通过一种改进后的图灵测试, 在司法实践中具体适用这一标准。如果将"强人工智能"解释为拥有人的理性的人工智能, 则强人工智能应当被视为自然人, 而弱人工智能依然是物。

  关键词:人工智能与法; 法律人格; 伦理人格主义; 理性; 建构性诠释;

  一、问题的提出和转化

  人工智能独特的智力能力给法律上"人"的地位带来了前所未有的挑战。人工智能已经表现出一定的智力学习能力和独立行为决策能力, 使传统的"人-物"二分法变得困难。国务院已提出:"加强人工智能相关法律问题研究……明确人工智能法律主体以及相关权利、义务和责任等。"1但目前对这一问题并无共识。有的学者主张依然将人工智能视为法律上的物2, 也有观点提出可以将之视为人3, 更有人将其界定为介于"人"与"物"之间的特殊存在4.故此, 有必要研究人工智能是主体还是客体, 抑或超越了传统的人-物二分法。

  相关探讨应当"为新兴技术的发育预留必要的制度空间"5.有观点认为, 法学研究不应讨论人工智能法律人格的问题, "避免对法律的稳定性造成不必要的冲击。"6但此类研究是有必要的。其一, 科技发展速度往往超出人们的想象, 强人工智能提前到来的时间可能超乎人类预料7.其二, 如果强人工智能没有出现, 超前研究不会产生任何社会危害;但若强人工智能出现了, 而法学界未能提供必要的学理支持, "我们会手足无措, 甚至只能束手就擒。"8其三, 即使强人工智能不会出现, 对人工智能法律主体资格的判断也很必要。若将有智力的人工智能视为工具, 可能会贬低智力和理性的重要性, 乃至贬损人的尊贵地位9.可是若将一些弱人工智能认定为法律主体, 就可能使利用人工智能致人损害或利用人工智能违法犯罪的人, 逃避法律责任;甚至, 如果赋予弱人工智能选举权, 还可能损害民主10.之前, 沙特政府授予机器人索菲亚公民身份11, 美国政府将无人驾驶汽车 (而非车主) 认定为"司机"12, 此类尝试都是危险的。

  为了给法官裁判提供理论指引, 需要对人工智能的法律主体资格作建构性诠释。文义上, 法律中的"人"这一语词既可能仅指智人, 也可能指一个外延更为广泛的范畴。立法者的历史意图当然未将机器人包含在"人"的外延之内, 但也未将之排除于"人"的内涵之外。尽管亲属法中的有关规定无法适用于机器人, 但其他部门法中的"人"是否包括机器人仍需探讨。实在法对法律人格的规定并非任意的。尽管立法者在事实上可能赋予任何物体拟制人格, 但如果人工智能本不应获得人格, 那样做就会违背法律人格制度的本旨和普遍的伦理原则。法律上区分人与物, 是为了把人当作目的, 把物当作手段。把人当作目的的理由, 便构成了人格概念的本旨13.重要的不是人工智能是否在生物学或形而上学意义上与人相同, 而是人工智能是否契合这一本旨, 这一点决定了法官应当如何对待人工智能。

  对于人工智能是否契合法律人格概念本旨的判断, 取决于三方面的考量:第一, 大前提:法律人格的赋予标准, 即人格概念的本旨;第二, 小前提:人工智能的当下发展状况;第三, 结论:将人工智能涵摄于法律人格赋予标准的结果。人工智能技术的发展日新月异, 依照小前提所下的定论可能会很快被淘汰。最好根据人工智能的发展阶段, 将之区别对待为法律主体或客体14, 问题的焦点由此转化为人工智能法律人格的赋予标准。

  本文主张, 赋予人工智能法律人格的标准在于理性。第一, 从法律人格的概念可以推理出, 理性是人工智能获得法律人格的充要条件。根据伦理人格主义, 理性是指认知能力、意思能力和道德能力。第二, 理性之外的某些条件也是成为人的必要条件, 但理性在逻辑上已经蕴涵了这些条件, 这些条件也无法帮助我们判断是否应当赋予人工智能法律人格。第三, 没有理由将人工智能视为介于人与物之间的特殊主体, "电子奴隶说""代理人说"、法人制度、动物权利论和非完全行为能力人制度也都不构成伦理人格主义标准的反例。第四, 伦理人格主义的法律人格赋予标准也具备可操作性, 司法实践中可以通过一种改进后的图灵测试来适用这一标准。第五, 这一标准的具体适用后果既不违背我们的哲学直觉, 也未偏离我们的价值理念, 因而具备可接受性。

  二、伦理人格主义的法律人格标准:"认知能力+意思能力+道德能力"

  法律人格就是权利能力, 也即主体享有权利和承担义务的资格。拉伦茨主张, 法学上的人是指伦理意义上能够自律而享有自由的人, 只有从康德伦理人格主义哲学出发才能理解这一概念15.康德认为, 仅具有相对价值的无理性的存在者称为事物, 而有理性的存在者则称为人, 因为其本性就已经使之凸显为目的自身, 亦即凸显为不可以仅当作手段来使用16.那么, 就人之为人的目的性来说, 人所异于事物之理性究竟是什么?

  按照本文的理解, 可以将理性概念的内涵解释为认知能力、意思能力和道德能力。康德更多强调理性概念的核心内涵, 也即道德能力17.但道德能力本身以认知能力和意思能力为必要条件, 只有具有人的认知能力和意思能力的存在者才可能有道德能力。一个不能够有效地感知物质世界和精神世界的存在, 或许也能够作外观上符合道德的行为, 但显然不可能识别道德规范的要求, 并从事真正的道德实践。一个没有意思能力的存在, 既不可能自行为自己设立行动目标, 也就不可能自觉地使其行动目标符合道德要求。因此, 理性存在者等同于有认知能力、意思能力和道德能力的存在者。当且仅当人工智能具有人的认知能力、意思能力和道德能力, 则应赋予人工智能法律人格。

  (一) 认知能力是赋予人工智能法律人格的必要条件

  认知能力是人工智能获得法律人格的必要不充分条件。认知能力是指像人一样有效感知客观物质世界和精神世界的能力18.这个定义在逻辑上蕴涵了感知、反应性、记忆、想象、联想、好奇、意向性、自我意识和自省意识等多个要素。认知能力是理性的基石, 只有具有认知能力的人才可能成为法律上的人19.不过, 仅有认知能力, 而无意思能力和道德能力的人工智能, 不能够为自身设定行动目标, 只能被动服从程序设定者订立的目标, 本质上与工具无异, 自然不能获得法律人格。

  (二) 意思能力是赋予人工智能法律人格的必要条件

  意思能力也是人工智能获得法律人格的必要不充分条件。意思能力蕴涵法律行为能力, 包括狭义的法律行为能力以及不法行为能力 (责任能力) .这意味着"人依其本质属性, 有能力在给定的各种可能性范围内, 自主地和负责地决定他的存在和关系, 为自己设定目标并对自己的行为加以限制。"20这一定义也同时蕴涵了自由意志、沟通、慎思、选择、决定和行动等多个方面的能力。法律希望人能够实现意思自治, 只有能够运用和控制意思能力的人才能独立做出决定和实施法律行为、承担法律后果, 因而才能是法律主体21.

  仅有意思能力而无道德能力的人工智能依然应当是法律客体。有学者曾表示担心:如果人工智能在智慧上与人类无异, 甚至超过人类, 就可能危害社会, 乃至威胁人类种族利益22.在此, 可以援引菲尼斯曾提出的一项原则:如果损害公共善的潜在风险是由同胞的行为造成的, 则我们必须接受这种风险;如果是由同胞之外的人造成的, 则不必接受23.按照同样的原则, 在人工智能具备危害人类种族利益之风险的情形下, 若其不具备像人一样的道德能力, 我们当然没有必要接受这种风险, 不必承认机器人与人平等的主体地位。

  (三) 道德能力是赋予人工智能法律人格的必要条件

  道德能力也是人工智能获得法律人格的必要条件。道德能力是指能像人一样识别道德规范的要求并循之而为道德实践的能力。"每个人具有权利能力, 因为他在本质上是一个伦理意义上的人, 任何人相对于其他人都处于一种法律上的基础关系中, 即既有权要求别人尊重他的人格, 也有义务尊重别人。"24有道德能力才有知法守法的能力, 并有充分的道德理由要求他人尊重其作为人的法律人格。而不具备道德能力的存在者, 没有尊重他人人格的能力, 他人当然也不必尊重他的人格。

  (四) 理性是赋予人工智能法律人格的充要条件

  理性是人工智能获得法律人格的充要条件。我们之所以认为人有人格, 正是因为其理性本质。那么具有和人一样的理性本质的人工智能, 也应当具有权利能力。人类中心论者也许认为机器人不应当获得与自然人平等的主体地位25.然而, 定言命令作为最高普遍实践法则之公设, 对于每一个人来说都是目的自身:对于人类以及每一种一般而言有理性的本性, 都必须在任何时候都同时当做目的 (主体) 来对待, 而绝不仅仅当作手段来使用26.在道德上, 我们应当像对待人一样对待所有的理性存在者;只要存在于这种理性的关系之中, 无论其在生物学方面与智人有何不同, 不尊重其人性或以不人道的方式对待之都是错误的27.如果我们不遵循这一法则, 又有什么理由平等对待所有智人呢?

  当然, 只有像人一样服从道德而不危害社会, 至少其危害社会的倾向不超过一般智人的人工智能, 才能获得法律人格。因为只有这样的人工智能才算得上具有道德能力, 才符合根据伦理人格主义的标准。至于不具备道德能力的人工智能, 则可能威胁人类种族利益, 不应视为法律主体。当然, 于此需要注意三点:其一, 无论是否赋予人工智能法律人格, 都应当为人工智能设定正确的价值观念, 更要避免其"背叛转折"28;其二, "能力越大, 责任越大", 人工智能需要承担特定的责任, 在某些方面受到限制;其三, 我们需要找到足够可靠的方法, 来判断人工智能是否具有像人一样的道德能力。

  综上, 按照本文对伦理人格主义哲学的理解, 理性存在者等同于有人的认知能力、意思能力和道德能力的存在者。因此, 有人的认知能力、意思能力和道德能力, 是人工智能获得法律人格的充要条件。

  三、理性之外人工智能法律人格赋予标准诸学说之否定评判

  在从正面论述本文观点之后, 仍需考虑可能的反对意见, 做出有效的防御性论证。与本文主张相竞争的理论, 则是将法律人格赋予标准寄托于理性之外的方面。按照这种观点, 理性并不构成法律上人的概念之充要条件, 而理性之外的方面则构成人之为人的充分条件或必要条件。此类观点又可分为生命脆弱说、感知痛苦能力说、生命神圣说、欲望主体说等。但是, 这些观点尽管有一定合理性, 却并不能击败伦理人格主义的法律人格赋予标准。

  生命神圣说认为, 只有人类的生命才是神圣的, 任何其他物种的地位都无法与人类相提并论, 唯有人类才是法律上的人。虽然法人和动物也被拟制为人, 但这样做只是因为对人类有价值罢了29.问题在于, 人类生命之所以神圣的理由是什么?是因为人类独特的物种属性吗?除了神创论之外, 并没有什么理由认为, 人的神圣源于其独特的物种属性。是因为人的情感、欲望等非理性的心理属性吗?动物在这方面与人相似, 既然生命神圣说不承认动物与人平等, 也就只能认为:人的生命之所以神圣, 是源于人的理性本质。

  欲望主体说认为, 只有有欲望的人才能负担利益, 只有"欲望主体"才能成为法律主体;抽离了欲望的人, 感受不到快乐和痛苦, 丧失了行为的动因, 无法作为适格的利益负担者30.然而, 所谓"人是欲望主体"是什么意思?这可能是在说, 没有任何行动目标之存在者不应当视为人。但这种解释不过是在强调人应当具有为自己设定目标的意思能力而已。"欲望主体说"也可能是说, 人的正当欲望应当得到保护, 但这是人格的后果而非人格的条件。"欲望主体说"还可能是说, 只有能够感受苦乐并因此趋利避害的存在才能视为人。但如果人工智能能够为自己设立目的, 并没有理由把趋利避害 (而非道德能力) 作为人格的必要条件。

  感知痛苦能力说认为, 法律人格的本质是感知痛苦的能力。该说的理由有二, 其一是因为法律在意那些具有感知痛苦能力的生物之感受, 其二是因为只有能够感知痛苦的实体才可能出于同理心而约束自己的行为31.但是, 一方面, 就算法律在意具有感知痛苦能力的生物之感受, 也只需要立法禁止人们虐待它们即可, 并不一定需要赋予这些生物以人格。动物也有感知痛苦的能力, 比较法上也有禁止人们虐待动物的立法例。但禁止虐待动物的理由是人类的同情心, 并不需要承认动物的权利能力。另一方面, 不能感知痛苦的人工智能也可能有能力约束自己的行为。如果人工智能有能力识别道德规范的要求并循之而为道德实践, 它就有能力约束自己的行为, 不给他人造成伤害。能否感知痛苦对于是否赋予人工智能法律人格是不相干的。

  生命脆弱说认为, 法律上的人理应限于人类, 因为人类的生命容易消逝, 法律主体制度正是为了弥补这一缺憾而存在32.但是, 这一观点并不足以证明, 只有人类才能成为法律主体。人类死亡的标准是脑死亡33, 这是因为人脑是承载意识的器官, 当人的意识永久消逝, 即使心脏仍在跳动, 也会被确认为死亡。同样, 凡是有意识的人工智能都必然有着意识永久终结的可能性, 其生命同样是脆弱的。自我意识是像人一样的认知能力的内在构成要件, 这在逻辑上蕴涵着死亡的可能性。既然理性在逻辑上蕴涵了生命的脆弱, 生命脆弱说并不构成反对伦理人格主义的论据。

  出于为法律实践提供指引的目的, 我们需要寻找人的本质属性, 而非罗列人之为人的全部特征。诚然, 在理性之外, 也有一些条件是人之为人的必要条件。人之所以为人不仅在于空洞、纯理的理性, 而且在于人所具有的过一种人的生活的能力。人类的生活在某些方面是与其他地球生物共享的, 一根胡萝卜或一只猫在这些方面有着与人类同样的生命34.在这些方面的生活中, 有些条件确实是人之为人的必要条件, 无生命或不存在的人并不具有人格, 我们不会像对待活人那样对待他们。

  然而, 理性之外的特征也是机器人与动植物所共同享有的, 从这里入手无法帮助我们判断是否应当赋予机器人以人格。机器人必须具备过一种理性生活的能力, 才能符合伦理人格主义人格标准, 这种能力本然就蕴涵着过一种生活的能力。即使机器人无法成为像胡萝卜或猫一样的有机体, 就一种生活能力来说, 它也本来就与胡萝卜或猫差异不大。如果机器人拥有人的理性, 就可以推断出它必然享有 (广义上的) 生命, 有理由要求我们像对待人一样对待它。理性之外的条件并不是人的特有属性, 而是人类、动物、植物和机器人所共同享有的属性。没有理性的胡萝卜或猫都不是人, 这些条件无法帮助法官判断是否应当赋予人工智能法律人格。

  总而言之, 只有理性才是唯人独有、不与其他地球生物共享的本质属性, 是否赋予机器人法律人格的判断标准应当关注理性, 而无需关注理性之外的条件。

  四、将人工智能机器人视为介于人与物之间特殊主体三分法方案可能性的辩论

  根据整全性的要求, 法学家对法律原则的建构性诠释是否成立, 不仅取决于道德原则上的证立, 也取决于其是否符合法律实践中的实例35.有人主张, 人工智能既不能等同于人, 也不能视为纯粹的物, 而应获得特殊的、介于人与物之间的法律地位36.其理由是, 现代法律中的人格已经逐步扩大其伦理性外延, 并不存在严格的人物二分法37.然而, 如果我们细致地考察这些意见, 就会发现, 这些观点不会对伦理人格主义的法律人格赋予标准造成冲击。

  (一) 人工智能不能视为电子奴隶或者代理人

  "电子奴隶说"认为, 即使是有智慧的人工智能, 也不具有人类特殊的情感与肉体特征, 只能像电子奴隶一样不知疲倦地为人类工作, 可以视同罗马法中的奴隶, 有行为能力而无权利能力38."代理人说"认为, 机器人虽无法律人格, 但有权利充当主人的代理人, 其实施行为的后果由主人承担39.

  但是, "电子奴隶说"和"代理人说"实际上等同于将人工智能视为法律客体。在将机器人视为电子奴隶或代理人时, 如果其行为并不由主人控制, 则将其行为的后果归于主人就是不合理的。而如果其行为由其主人完全控制, 无法自行设定行动目标, 做出意思表示也不过是出自主人的控制罢了, 并不能够做出真正独立的意思表示, 其行为能力又体现在何处?按照"如无必要, 勿增实体"的原则, 完全可以将其等同于工具40.

  (二) 将人工智能类比为法人或动物

  有观点认为, 法人制度意味着, 即使没有理性的存在者, 也可能获得法律人格;人工智能和公司相似性极高, 可以将人工智能类比为此类主体41.人们也可能援引动物权利论, 将一些人工智能类比为动物, 否认将理性作为法律人格的必要条件42.

  但是, 法人制度不构成伦理人格主义的反例, 将人工智能类比为法人并不可行。法人并非不具备理性--自然人组成的机关提供了其认知能力、意思能力和道德能力。人们可能会说, 财团法人的本质是他治而非自治, 他们的行为能力和权利能力是受限制的, 这和人工智能非常相似。然而, 财团法人虽为他治而非自治, 却需要有思考地服从设立财团的目的, 这也需要与人相当的理性的支持。财团法人的机关也是由自然人组成的, 他们为财团提供了有思考地服从设立财团之目的的能力, 这些自然人本身也是具有完整法律人格的人。如果人工智能不具备人的理性, 就只能作为法人之财产, 不能视为某种人。如果人工智能具有人的理性, 这些人工智能就应当具有完整的法律人格, 可以作为法人的代表人或代理人, 而不能视为法人本身。

  动物权利论则并不为现行法体系所接受。禁止虐待动物并不等同于赋予动物人格。即使承认那些能够感知痛苦的人工智能不应受到残忍处置, 也不必改变其客体地位, 只需禁止虐待它们即可。德国民法"动物不是物"条款被讽为"概念美容", 就是因其已有保护动物的规定43, 如能对人工智能有类似保护, 无需"概念美容".动物权利论本身就难以在实在法中得到合理诠释, 也没有充分的实质性道德理由支持, 将人工智能类比为动物对于本文关心的问题并没有意义。

  (三) 人工智能不能一律视为非完全行为能力人

  有观点提出, 将人工智能类比为儿童等不具有完全行为能力的人, 赋予其法律人格, 而对其行为能力作出法律上的限制44.尽管这种类比在某些特定情况下是成立的, 但却不能一概而论。

  为什么年幼的人和智力受损或丧失的人, 即使没有完全的理性, 也拥有法律人格?按照菲尼斯的论证, 凡是拥有理性潜能的存在者, 尽管其理性处于未充分发育的形式中, 或者可能受损而不能正常发展, 只要尚未死亡, 都应当被作为人来对待。如果不承认这一点, 就势必要接受某种二元论。根据这种二元论, "人"和"身体"是相对的, 当"身体"处在一定的发展和健康状态时, "人"就在寄居并使用这个"身体";但在其他时候, "人"就离开了那具"身体", 因为它尽管活着, 但尚不能够或不再能够支撑"人"的存在。二元论已经受到毁灭性的批评。它将无肉体的人格与无人格的肉体截然分开, 使得人格变化不定, 无法说明每个人在其有意识的行为中所经历的统一性45.并且, 人之为人意味着一种意义重大的尊严, 成为一个人应当是一种根本和基础的特征, 而非一种习得和易逝的特征46.

  基于个体同一性和人格尊严的论证并没有摧毁伦理人格主义的法律人格赋予标准, 仅仅是修正了它。根据这种修正, 理性的能力不仅被理解为实际运用能力, 而且包括积极的"潜能".年幼的人和智力受损或丧失的人并不是介于人与物之间的存在, 他们依然拥有理性的潜能, 被视为完整的人。如果将这种经过修正的标准适用于人工智能, 凡是实际上在运用理性能力以及具有获得运用理性能力潜能的人工智能, 都应当被视为具有道德能力, 也就应当获得法律人格。当这种能力被实际运用时, 人工智能既有权利能力也有行为能力;当这种能力仅仅是一种潜能时, 人工智能只有权利能力而无法获得完全的行为能力。尽管非完全行为能力人制度迫使我们对理性作出更为精确的限定, 但是伦理人格主义的标准依然成立。

  总之, 现行法体系依然坚持人物二分法, 没有理由将人工智能视为介于人与物之间的特殊主体。理性不仅包括实际运用理性的能力, 也包括积极发展理性的潜能, 这种理性本质是人工智能获得法律人格的充要条件。

  五、伦理人格主义法律人格赋予标准的可操作性

  法学乃实践之学47, 仅有抽象的哲学思考还是不够的, 一种法学理论还必须考虑到其具体适用。这一原则应当具备简明、具体、可适用的可操作性, 以便实务上直接适用该标准来区分主/客体。有必要提出一种具备可操作性的鉴别标准, 以便测试人工智能是否符合伦理人格主义的标准。如果能够提出这种测试, 伦理人格主义标准就是具备可操作性的, 尽管个案中的解释工作仍不可能完全避免。

  对于区分人与非人的操作方法, 当前学界比较认可的是"图灵测试"48.图灵测试的目的是测试机器是否能够像人一样思考49.其具体设计为:人与机器分别待在两间分开的房子里, 彼此之间用电传打印机书面交流。如果人向机器提出了足够多的问题, 依然无法通过后者的答复, 来判断其究竟是人还是机器, 则屋子里的机器就可称得上有智能50.

  可以提出一个改进后的、伦理人格主义版本的图灵测试。首先, 这可以包含原版的图灵测试, 以便测试人工智能是否有人的"认知能力+意思能力".其次, 我们的测试应当增加一些内容, 以测试人工智能是否具有道德能力。我们很容易就能测试出机器人是否愚蠢, 却很难测试机器人是否虚伪。如果本质上邪恶的机器人伪装得与人无害, 如何能识破其伪装?对此, 既应当保持足够的审慎, 又不应当完全丧失勇气。我们对机器人是否具有道德能力的判断, 与我们对其他人是否具有值得信任的判断, 没有本质的区别。也许我们可以对待机器人更苛刻一些, 这毕竟是审慎原则的要求, 但不应当采取彻底的怀疑论态度。既然人类彼此之间并没有陷入"猜疑链"或"一切人对一切人的战争"之中, 也就没有理由与机器人陷入"猜疑链"之中--这不是认识论上的论证, 而是道德性的论证。

  可通过两种方式测试机器人是否具有道德能力。第一种是检查算法。人类程序员可以检验机器人是否具有人的道德能力, 如同情心、正义感、责任感和对所有人的平等尊重。不过, 这未必是可行的。在人工智能技术的几大流派中, 符号主义试图用计算机的符号操作来模拟人的认知过程;连接主义试图通过神经网络来建构大脑工作模式;行为主义者则试图通过算法进化来模拟智能行为51.其中, 连接主义的神经网络深度学习路径52, 以及行为主义的路径53, 都处于程序员无法解释的黑箱状态之中。因而, 还需第二种方式:模拟各种社会情景, 观察人工智能会采取什么样的行动。比方说, 程序员可以使人工智能误以为自己是在现实世界中进行真实的活动, 来观察人工智能在模拟的道德情境中将会做出怎样的选择。这有点像缸中之脑。具体的操作当然是由技术人员来完成, 但判断的权力应交给陪审团, 这是为了实现双盲的要求。对照组由智人组成, 对照测试的方法可以是调查问卷。如果在合理的期限内, 陪审团模拟了他们所能想到的全部道德情景, 而人工智能的反应在所有情况下都无可挑剔或至少表现得比一般人更高尚, 以至于陪审团无法区分人工智能与智人, 就有理由认为这些人工智能是具有道德能力的。

  哲学界对于图灵测试的批评也是值得考虑的。对于图灵测试的批评有两种。第一种批评是基于"内感知"的, 依赖于意向性、内省、思维、意识与潜意识等观念。笛卡尔意义上的"思维""精神"或"心灵"可以对自身活动拥有感知, 这一心理现象必须包含内在体验。在此, 意向性是心灵必不可少的特征。除非能够证明, 人工智能具备人的内省、内感知、思维、意识, 无论其多么灵巧, 都不应当被视为能思考的理性存在者54.第二种批评则是基于"外感知"的, 最有力的挑战来自赛尔的"中文房间实验"55.赛尔假设他被锁在一间小屋中, 被给了一些他所不懂的中文文本, 和一些他懂的英文指令, 及能将中文文本与英文指令联系起来的规则。面对外面送来的中文问题, 赛尔能够将之与正确的中文文本联系起来, 给出正确的中文答案, 所依据的只是那些指令和规则。这样, 虽然赛尔不懂中文, 在外界眼中他跟懂中文没什么区别。这意味着, 即使某个"黑箱"在输入-输出上表现得与人毫无差别, 我们依然无法确信这样的机器具有人的意识。

  不过, 这两种批评对于我们的测试来说并不能成立。这些批评在认识论上是否成功是可争议的, 但在伦理学上一定是错的。其一, 对于来自意向性的诘难, 可借助哲学上对"他心问题"的解答而回应之56.认为某种灵巧莫比的人工智能缺乏"内省"的观点, 与把自己之外的其他人都视为"哲学僵尸"的观点57有何不同?既然我们有能力判断他人是否值得信任, 根据同样的方法, 我们也可以从机器人的行为表现, 来判断其是否值得信任。其二, 虽然来自中文房间实验的诘难更加复杂, 但此时机器人的理性本质是无法证伪的, 宣称其无法像人一样思考是无意义的。根据证伪主义"猜想-反驳"的试错机制58, 如果人工智能表现得具有人的认知能力、意思能力和道德能力, 将之视为具有人的理性就初具正确性--直到这一猜想被证伪。毕竟, 假如某个机器人确实具有人性, 不把它像人一样对待将会是我们自身的道德污点。

  如果机器人通过了改进后的图灵测试, 在道德上就没有理由认为其与人类存在区别。基于这种改进后的图灵测试, 有理由相信伦理人格主义标准具有充分的可操作性。

  六、伦理人格主义标准应用后果的可接受性

  即使伦理人格主义的法律人格赋予标准在原则上是正确的, 也有办法具体操作, 其适用后果是否具备可接受性仍需要论证。根据反思平衡的方法, 如果这种原则的适用后果既不违背我们哲学上的直觉, 也不与我们的其他价值理念相冲突, 就是成功的。这种成功的适用将会成为支撑伦理人格主义判断标准的范例或典范, 为其可接受性提供支持59.

  可以借助对"弱人工智能"与"强人工智能"的建构性诠释, 阐明伦理人格主义标准的适用后果。一般认为, 弱人工智能只是在部分方面能够与人的思考相竞争罢了, 强人工智能却应当可以像人一样思考乃至思考得比人类更好。弱人工智能只能通过程序实现一些数据存储、检索、逻辑判断功能, 难以像人一样思考, 强人工智能则需要能够产生意识并具有至少与人类相当的智能60.如果我们把"弱人工智能"与"强人工智能"都当作解释性概念, 就可以对这两个概念的内涵做出建构性诠释, 为我们的理论思考服务。根据这种方法, 我们可以对"强"与"弱"人工智能的区分做出细化:"像人一样思考"不仅应当意味着其在认知能力、意思能力层面的思考是像人一样的, 也意味着其在道德能力层面的思考是像人一样的。

  据此, 按照伦理人格主义的标准, "弱"人工智能只应作为客体, 而"强"人工智能应当作为法律主体。弱人工智能的思考与人类的思考完全不同, 前者仅仅体现为一种简单的逻辑运算, 而后者则得到人的自由意志和内在意向性因素的驱动。弱人工智能只能处理记忆和复制人脑中可以客观化的信息, 而人类的直觉、灵感、哲学上的直觉、道德判断、审美体验、神秘体验等灵性的认识活动, 不仅极不稳定, 且难以通过符号得以理性化表达61.弱人工智能即使具有一定的独立自主判断选择、做出意思表示的理性能力, 其行为的目的也是来自于人类设计者的程序设计, 不能独立决定其行为的目的, 本质上仍不过是作为人的能力的延伸的工具62.尽管有学者认为, 现行体系下否认人工智能法律人格会造成缺乏法律价值指引和具体规则标准的现实困境63, 但是, 现有实在法体系足以满足有关弱人工智能之法律纠纷的需要, 并不存在真正的法律挑战64.总之, 不具有人的理性的弱人工智能只能作为手段而不能成为目的, 不符合法律中的人的概念。

  如果强人工智能具有人的理性, 便应当在现行法中被视为自然人。随着技术发展, 强人工智能虽然不可能获得自然的机体, 却可以具有像人一样的认知能力、意思能力和道德能力。既然其具有与人相当 (也许还超过人) 的理性, 就与其他人处于一种法律上的基础关系中, 既有权要求别人尊重它的人格, 也有义务尊重别人, 应当享有权利能力。其他理性存在者必须依客观的、先天的普遍法则将这样的人工智能同等作为主体对待, 法律上必须视之为法律主体。即使立法者没有修改现行法, 法官也可在解释论上将之涵摄入自然人概念之下, 适用有关自然人的法律规定。

  虽然强人工智能与智人总有区别, 但对之适用法律上自然人的规定无需有太多限制, 至少不比将法人视为人所受限制为大。首先, 强人工智能可以享有一些法人所不具有的人身权利。强人工智能作为伦理意义上的人, 拥有作为理性存在者的尊严, 享有"一般人格权", 也没有理由不赋予其姓名权等具体人格权。法人的权利能力取决于其宗旨, 而强人工智能则是独立的目的主体, 可以享有自由发展权和自由择业权。其次, 强人工智能是否享有婚姻家庭法中的权利尚不能下定论。既然同性婚姻都可能合法化, 而不会导致"崩溃"或者"社会成员分崩离析"等现象65, 将婚姻家庭法的规定适用于人工智能也未必会导致伦理社会崩溃。

  综上所述, 弱人工智能与强人工智能的区别在于是否在认知能力、意思能力和道德能力上像人一样思考。根据伦理人格主义的判断标准, 弱人工智能应当视为法律客体, 而强人工智能应当视为法律主体。有理由认为, 伦理人格主义标准具有相当充分的可接受性。

  七、结语

  现行法体系依然坚持人-物二分法, 法官不能将人工智能视为介于人与物之间的特殊主体, 而必须找到一种正确的主客体判断标准。根据伦理人格主义哲学, 在判断人工智能的法律主体资格时, 无需考虑理性之外的条件。当且仅当人工智能具有了人的理性, 包括认知能力、意思能力和道德能力, 则应当赋予其法律人格。这一标准具有简明、具体、可适用的可操作性, 并且其适用后果也可以与我们的道德直觉和价值体系相融贯。

  这一理论能够使法官忽略复杂、抽象、宏大、晦涩的哲学思考, 在司法实践中有充分的理论自信将弱人工智能判定为物, 而保留将强人工智能认定为人的可能性。问题在于, 所谓像人一样的道德能力, 究竟是什么程度的道德能力?在此方面需要更为深入的研究。基于审慎原则, 我们对机器人的要求确实应当比我们对智人的要求为高, 但又不应当无限高。阿西洛马人工智能原则66所提出的安全性、透明、人类价值观等道德标准和价值观念是有益的, 而其中提出的性能警示、递归自我完善和共同利益等长期问题则值得进一步思考。

  注释

  1 《国务院关于印发新一代人工智能发展规划的通知》 (国发[2017]35号) .
  2 See Kalin Hristov.“Artificial Intelligence and the Copyright Dilemma, ” The Journal of the Franklin Pierce Center for Intellectual Property 57, no.3 (2017) :442;吴汉东:《人工智能时代的制度安排与法律规制》, 《法律科学》2017年第5期, 第131页;郑戈:《算法的法律与法律的算法》, 《中国法律评论》2018年第2期, 第70页。
  3 参见郭少飞:《“电子人”法律主体论》, 《东方法学》2018年第3期, 第38-49页。
  4 See Susanne Beck.“The Problem of Ascribing Legal Responsibility in the Case of Robotics, ” AI& Society 31, no.4 (2016) :473-81;袁曾:《人工智能有限法律人格审视》, 《东方法学》2017年第5期, 第50-57页;杨立新:《人工类人格:智能机器人的民法地位--兼论智能机器人致人损害的民事责任》, 《求是学刊》2018年第4期, 第88-92页;杨清望、张磊:《论人工智能的拟制法律人格》, 《湖南科技大学学报》 (社会科学版) 2018年第6期, 第91-97页。
  5 王利明:《人工智能时代对民法学的新挑战》, 《东方法学》2018年第3期, 第4页。
  6 齐延平:《论人工智能时代法律场景的变迁》, 《法律科学》2018年第4期, 第38页。
  7 See Vernor Vinge.“The Coming Technological Singularity, ” Whole Earth Review 81 (1993) :88-95.
  8 刘宪权、房慧颖:《涉人工智能犯罪刑法规制的正当性与适当性》, 《华南师范大学学报》 (社会科学版) 2018年第6期, 第111页。
  9 参见陈景辉:《人工智能的法律挑战:应该从哪里开始?》, 《比较法研究》2018年第5期, 第144页。
  10 参见范忠信:《人工智能法理困惑的保守主义思考》, 《探索与争鸣》2018年第9期, 第79、82页。
  11 Chris Weller, “Meet the First-Ever Robot Citizen - A Humanoid Named Sophia that Once Said It Would 'Destroy Humans', ” Business Insider, last updated October 27, 2017, https://www.businessinsider.com/meet-the-first-robot-citizen-sophia-animatronic-humanoid-2017-10.
  12 Victoria Woollaston, “Google's Self-Driving Computers Officially Qualify as 'Drivers':Regulator Decision Paves the Way for More Widespread Trials, ” Daily Mail, last updated February 10, 2016, https://www.dailymail.co.uk/sciencetech/article-3439851/In-boost-self-driving-cars-U-S-tells-Google-computers-qualify-drivers.html.
  13 参见古斯塔夫·拉德布鲁赫:《法哲学》, 王朴译, 法律出版社2005年版, 第134页。
  14 参见刘宪权:《人工智能时代的刑事风险与刑法应对》, 《法商研究》2018年第1期, 第11页。
  15 参见卡尔·拉伦茨:《德国民法通论》 (上) , 谢怀栻等译, 法律出版社2003年版, 第45-46页。
  16 参见伊曼努尔·康德:《康德着作全集》 (第4卷) , 李秋零译, 中国人民大学出版社2005年版, 第436页。
  17 参见徐文:《反思与优化:人工智能时代法律人格赋予标准论》, 《西南民族大学学报》 (人文社科版) , 2018年第7期, 第102页。
  18 Ian Storey.“Kant's Dilemma and the Double Life of Citizenship, ” Contemporary Readings in Law and Social Justice 2, no.2 (2012) :65-88;Ngaire Naffine.“Review Essay:Liberation the Legal Person, ” Canadian journal of law and society 26, no.1 (2011) :193-203.
  19 参见孙占利:《智能机器人法律人格问题论析》, 《东方法学》2018年第3期, 第10-17页。
  20 参见卡尔·拉伦茨:《德国民法通论》 (上) , 谢怀栻等译, 法律出版社2003年版, 第45-46页。
  21 Steven Wise.“Legal Thinghood of Nonhuman Animals, ” Boston College Environmental Affairs Law Review 23, no.3 (1996) :471, 496, 505-509, 514.
  22 See Rory Cellan-Jones, “Stephen Hawking Warns Artificial Intelligence Could End Mankind, ” BBC News, last updated December 2, 2014, http://www.bbc.com/news/technology-30290540.
  23 John Finnis, Human Rights and Common Good:Collected Essays Volume III (Oxford:Oxford University Press, 2011) , 133.
  24 参见卡尔·拉伦茨:《德国民法通论》 (上) , 谢怀栻等译, 法律出版社2003年版, 第120页。
  25 参见刘宪权:《人工智能时代机器人行为道德伦理与刑法规制》, 《比较法研究》2018年第4期, 第43-44页。
  26 参见伊曼努尔·康德:《康德着作全集》 (第4卷) , 李秋零译, 中国人民大学出版社2005年版, 第436-437页。
  27 See Allen W.Wood.“Kant On Duties Regarding Nonrational Nature, ” Proceedings of the Aristotelian Society 72, no.1 (1998) :189-210.
  28 参见尼克·波斯特洛姆:《超级智能:路径、危险性与我们的战略》, 张体伟、张玉青译, 中信出版社2015年版, 第143、179页。
  29 See John Finnis.“Public Reason, Abortion, and Cloning, ” Valparaiso University Law Review 32, no.2 (1998) :377-378;Ronald Dworkin, Life's Dominion:An Argument about Abortion, Euthanasia, and Individual Freedom (New York:Alfred A.Knopf, 1993) , 81-84;Christopher D.Stone.“Should Trees Have Standing?Toward Legal Rights for Natural Objects, ” Southern California Law Review 45, no.2 (1972) :450, 493.
  30 参见龙文懋:《人工智能法律主体地位的法哲学思考》, 《法律科学》2018年第5期, 第27-29页。
  31 See Mary Midgley, Beast and Man:The Roots of Human Nature, 2rd ed. (London and New York:Routledge classics, 2002) , xxvii.
  32 Ngaire Naffine.“Author's Introduction:The Law of Persons, ” Australian Journal of Legal Philosophy 35, no.1 (2010) :111;Ngaire Naffine.“Our Legal Lives as Men, Women and Persons, ” Legal Studies 24, no.4 (2004) :621, 628;Anna Grear.“Challenging Corporate Humanity:Legal Disembodiment, Embodiment and Human Rights, ” Human Rights Law Review 7, no.3 (2007) :511, 520.
  33 参见徐明:《论我国器官移植脑死亡的合法化》, 《法学杂志》2014年第4期, 第134-140页。
  34 See John Finnis, Human Rights and Common Good:Collected Essays VolumeⅢ (Oxford:Oxford University Press, 2011) , 219.
  35 See Ronald Dworkin, Law's Empire (Cambridge, Massachusetts:Harvard University Press, 1986) , 88-90.
  36 袁曾:《人工智能有限法律人格审视》, 《东方法学》2017年第5期, 第50-57页;杨立新:《人工类人格:智能机器人的民法地位--兼论智能机器人致人损害的民事责任》, 《求是学刊》2018年第4期, 第88-92页;杨清望、张磊:《论人工智能的拟制法律人格》, 《湖南科技大学学报》 (社会科学版) 2018年第6期, 第91-97页;张玉洁:《论人工智能时代的机器人权利及其风险规制》, 《东方法学》2017年第6期, 第58页;郭少飞:《“电子人”法律主体论》, 《东方法学》2018年第3期, 第38-49页。
  37 叶欣:《私法上自然人法律人格之解析》, 《武汉大学学报》 (哲学社会科学版) 2011年第6期, 第125-129页。
  38 See Susanne Beck.“The Problem of Ascribing Legal Responsibility in the Case of Robotics, ” AI & Society 31, no.4 (2016) :473-81.
  39 See Kalin Hristov.“Artificial Intelligence and the Copyright Dilemma, ” The Journal of the Franklin Pierce Center for Intellectual Property 57, no.3 (2017) :442.
  40 参见郑戈:《算法的法律与法律的算法》, 《中国法律评论》2018年第2期, 第70页。
  41 参见朱程斌:《论人工智能法人人格》, 《电子知识产权》2018年第9期, 第18-21页。
  42 See F.Patrick Hubbard.“Sophisticated Robots:Balancing Liability, Regulation, and Innovation, ” Florida Law Review 66, no.5 (2014) :1803-1872.
  43 迪特尔·梅迪库斯:《德国民法总论》, 邵建东译, 中国政法大学出版社2000年版, 第877页。
  44 See Gabriel Hallevy.“The Criminal Liability of Artificial Intelligence Entities, ” Akron Intellectual Property Journal 4, no.2 (2010) :171-219.
  45 See John Finnis, Human Rights and Common Good:Collected Essays VolumeⅢ (Oxford:Oxford University Press, 2011) , 220-225.
  46 See Ronald Dworkin, Life's Dominion:An Argument about Abortion, Euthanasia, and Individual Freedom (New York:Alfred A.Knopf, 1993) , 81-84.
  47 参见舒国滢:《法学是一门什么样的学问?从古罗马时期的Jurisprudentia谈起》, 《清华法学》2013年第1期, 第99页。
  48 参见王阳:《图灵测试六十五年:一种批判性的哲学概念分析》, 《科学技术哲学研究》2016年第2期, 第21页。
  49 See Ayse Pinar Saygin, IlyasCicekli and VarolAkman.“Turing Test:50 Years Later, ” Minds and machines 10, no.4 (2000) :463.
  50 See A.M.Turing.“Computing Machinery and Intelligence, ” Mind 59, no.236 (1950) :442.
  51 参见蔡自兴:《人工智能及其应用》, 清华大学出版社2016年版, 第10-11页。
  52 参见周志华:《机器学习》, 清华大学出版社2016年版, 第115页。
  53 参见姚锡凡、李旻编:《人工智能技术及应用》, 中国电力出版社2008年版, 第2页。
  54 Donald Michie.“Turing's Test and Conscious Thought, ” Artificial Intelligence 60, no.1 (1993) :1-22.
  55 See John R.Searle.“Minds, Brains, and Programs, ” Behavioral and Brain Sciences 3, no.3 (1980) :417-424.
  56 参见江怡:《当代英美哲学实在论与反实在论语境中的他心问题》, 《求是学刊》2006年第1期, 第39-45页。
  57 See Norman Malcolm.“I.Knowledge of Other Minds, ” The Journal of Philosophy 55, no.6. (1958) :969.
  58 参见卡尔·波普尔:《猜想与反驳:科学知识的增长》, 中国美术学院出版社2017年版, 第35-37页。
  59 See Ronald Dworkin, Justice For Hedgehogs (Cambridge, Massachusetts:Harvard University Press, 2011) , 160-161.
  60 See Stuart Russell and Peter Norvig, eds.Artificial Intelligence:A Modern Approach, 3th ed (Upper Saddle River:Prentice Hall, 2009) , 1020.
  61 参见甘绍平:《机器人怎么可能拥有权利》, 《伦理学研究》2017年第3期, 第127页。
  62 参见钟义信:《人工智能:“热闹”背后的“门道”》, 《科技导报》2016年第7期, 第15页。
  63 参见袁曾:《人工智能有限法律人格审视》, 《东方法学》2017年第5期, 第51页。
  64 参见房绍坤、林广会:《人工智能民事主体适格性之辨思》, 《苏州大学学报》 (哲学社会科学版) 2018年第5期, 第71页;杨立新:《用现行民法规则解决人工智能法律调整问题的尝试》, 《中州学刊》2018年第7期, 第43-44页。
  65 H.L.A.Hart, Essays in Jurisprudence and Philosophy (New York:Oxford University Press, 1983) , 251.
  66 《阿西洛马人工智能原则》, Future of Life Institute, 2017, https://futureoflife.org/ai-principles-chinese/, 2019年2月1日访问。

 

TAG标签: 法律人格  


上一篇:法理学的一般特点以及功能研究
下一篇:基于法理学角度浅析校园暴力问题