当前位置: 编码机 >> 编码机介绍 >> 数字法治立法伦理与算法正义算法主体行
作者:金梦法学博士,华东政法大学法律学院副教授
本文来源:《政法论坛》
立法的终极价值目标是为了人类社会更美好的未来。人工智能、区块链等技术正深刻改变着经济社会的整体格局,引起法律场景的变迁和深度法律变革,影响着人类发展的未来。对于这些技术组成核心和灵魂的算法进行立法规制显得尤为重要。算法对于生活的影响是普遍且重要的,它与同样以普遍且重要方式决定我们生活的法律和道德相会在一起。算法深度影响着人类生活的方方面面,无人驾驶汽车、人脸识别、自主导航规划、垃圾信息过滤、搜索引擎和手机购物等,这些程序应用都由一系列的算法构成并受算法控制运行。目前,弱人工智能和通用人工智能的算法始终受人类控制支配,但是未来强人工智能的算法因具备深度学习能力和自主意识而受到诸多质疑甚至引起一定程度的忧虑。有学者提出“终极算法”的概念,即所有知识,无论过去、现在和将来,都有可能通过单个通用学习算法从数据中获得。终极算法具有深度自我学习的能力和无限延展的空间,这也被视为机器学习的终极逻辑,是智能增强的重要特征。终极算法使得算法的不透明性进一步增强,通过算法“输入-输出”得出结论的可信度颇具争议。
算法作为人工智能和区块链等技术的运行基础和关键所在,针对算法带来的隐忧,我们要进行算法治理并为算法立法,控制好并进一步预防算法带来的风险,首先要考虑的是算法技术主体行为的法律规制问题。本文从法律运行的源头立法过程出发,遵循预防原则并结合行为法经济学的相关理论,探讨如何通过立法规制算法工程师的行为问题,以期进一步明确作为算法主体的人应当肩负的技术责任和时代使命,逐步趋向算法正义。
一、问题缘起:算法黑箱真的存在吗?
算法具有高度的专业性,但这并不意味着算法不能被普通人知晓。算法的运行规则始终是由人设计并控制的,人类设计算法、运用算法的最终目的是为了增强自身解决问题的能力,利用由算法构筑的智能体(IntelligenceAgent)来突破自身的极限,进一步提升生活水平并优化社会结构。算法主体是法律关系调整的对象,其设计研发等行为依旧需要在法律的框架下进行。算法黑箱的存在是相对意义上的概念,它并不是潘多拉魔盒。
(一)算法黑箱存在的前提预设是因果关系的认知断裂
算法是任何良定义的计算过程,该过程取某个值或值的集合作为输入并产生某个值或值的集合作为输出。可以说,算法是把输入转换成输出的计算步骤的一个序列,它是通过一个特定的过程来实现输入/输出关系。由于算法所进行的“输入-输出”的计算过程并不容易被除算法主体以外的人通晓,因而才会对算法过程和算法结果的正义性进行质疑,也就出现了算法黑箱。算法的输入为原因,算法的输出便是结果,在原因与结果之间的运算过程复杂且不透明,这一运算过程就是算法黑箱的存在空间。“黑箱社会的活力来自于这样一种理念,即信息只有在排他性的程度上才是有用的,也就是秘密信息。”在此意义上,算法黑箱的存在本身就是人为设计的。在信息社会,有用的信息作为稀缺资源必然具有排他的属性,如何持续掌控这些有用信息并且进一步带来收益便成为信息主体要考虑的重要问题。算法设计者利用算法这样一种技术手段,人为地控制或者遮蔽计算过程,也就是利用算法黑箱的存在,使因果关系断裂,将秘密信息持续恒久地掌握在自己手中。
法律规范并不会主动干涉算法主体持续掌控有用信息的行为本身,只有当这些算法侵害相关法律关系主体的权利和利益时,才会通过法律因果关系的判定来考量法律责任的承担问题。算法有很多种,甚至有学者认为,“情感并不是只能用来写诗谱曲的神秘精神现象,而是对所有哺乳动物生存和繁衍至为关键的生物算法。”如果情感是算法的观点成立,那么情感将是算法中最复杂的一种。从本质来说,算法是由人设计的,并由人操作执行,最终得出的结论是算法设计者和算法运用者能够控制的。这是因为,算法并不是不可操控的,每个复杂的算法都可以进行拆分并且重新组合,得出相同或者多样的结果。例如,智能地图的导航系统,分别设置始发地和目的地,有时候会有多种路线可供选择,基于距离最优、时间最短或者收费最少的不同算法选择最终趋向同一目的地。又如,人类基因工程的实验,通过建构组成人类DNA的30亿化学碱基对的序列数据库,将不同来源的基因按照预先设计的基因序列,通过技术手段改变生物原有的遗传特性,开发出新的基因产品。基因编辑技术和基因科技的衍生技术都指向人的内在的生命构造并引发伦理责任问题。
复杂算法的不同排列组合输出的数据结果不可避免地带有主体性立场,法律介入算法的规制过程是明确“输入-输出”的因果构造,找到原因力确定法律责任以求达到实质正义。法律上的因果关系是判定责任承担最通常的理由和根据,它是分配法定义务的重要方式。算法黑箱是输入和输出之间的运算过程不透明的一种隐喻空间,而终极算法伴随着深度学习发展演化,由此深度学习使算法升级进化的同时又与算法的可公开性和可透明化相悖。认知因果关系需要三个层级的不同能力,即观察能力(关联)、行动能力(干预)和想象能力(反事实)。从现有人工智能的发展水平看,智能体认知因果关系的层级还处在关联和干预阶段。以普遍使用的叶贝斯算法为例,叶贝斯网络是用若干给定的点连成线组成图形即图论来表述相关事件之间的因果关系。该算法广泛运用于商业活动和医疗诊断系统中,商业活动的消费者和患者可能无从知晓相应指令的运算过程,相对于算法主体而言,他们无法得知所得结果的正当性但在特定情势下又别无选择。在休谟看来,因果关系是涵摄着接近、接续和恒常结合的哲学关系,只有当它是一种自然关系,并且在我们的观念中产生结合的时候我们才对它进行推理从而得出结论。休谟的因果关系理论是以习惯为基础的联结主义,因果关系理论实为寻找结果的可靠性、合理性和正当性。法律上的因果关系是确定义务分配和归责的前提,因果关系可以通过一系列的逻辑推理被识别出来。算法黑箱存在是人为设置的思维盲区,其具有相对性,算法主体作为信息的占有者是能够设计并识别因果关系的特定群体,对于大部分算法用户而言,因果关系的认知断裂才是算法黑箱得以存在的准确语义表达。
(二)算法黑箱针对自动化决策过程中特定的算法用户
识别算法黑箱问题,首先需要区分算法主体和算法用户。算法主体是具备特定的职业技术能力,直接参与算法研发、算法衍生产品的制造和生产等具体实践活动的自然人、法人或相关组织,包括算法的控制者和处理者,算法主体对算法的研发和升级起着主导和关键作用。算法用户是算法相关产品和程序的直接使用者和消费者,算法用户同时也是数据信息的提供者。算法黑箱使人工智能带有魔幻的神秘色彩,这也是算法黑箱的现实价值所在。“算法在这一黑箱中进行自动化的数据处理、评估和行为分析,从而根据不同情况作出针对不同场景的决策。”识别不同算法的过程,是解密算法黑箱的过程。因果关系的认知断裂导致算法黑箱的存在迷局。算法黑箱对于算法主体来说,是具有功能指向的特殊价值和作用,是算法主体通过设计等行为实现设计目标和收益的方式和手段。对于算法用户来说,由于算法复杂的运算过程和专业的技术知识要求很难被使用者所知晓和掌握,便出现了真正意义上的算法黑箱。
以人工智能研究的人工神经网络为例,其应用范围包括语音识别、金融建模、信贷审批等,人工神经网络是一个典型的黑箱系统,它输入的网络权值和神经元的激活是透明可见的,输出的结果也是可以理解的,但是对于上述应用使用者来说算法过程却是不可识别的。在经济领域,大数据杀熟现象普遍存在,对法律价值体系中的公平和秩序造成严重冲击。数据控制者会利用自身掌握的强大数据库资源,通过算法和算力来计算消费者偏好,变相对消费者进行控制。普通消费者并不知晓自己的个人信息如何被商家所用,购物应用上的智能推送背后是通过算法计算出的消费者偏好,根据消费者以往的购物习惯和购买力计算的价格差异也是算法作恶的重要表现形式。我们可能不能阻止信息的收集,但是我们可以规制它如何使用。我们不能在对技术如何产生信誉漠不关心,要开始控制武断的、歧视性的和不公平的算法。在算法用户的视野中,算法黑箱是普遍存在的。算法黑箱本身并不是一个贬义的概念,其对算法用户的价值不言而喻,只有当算法作恶、算法歧视等情形出现时才会作出法律规范层面的价值判断。
破解算法黑箱的本质是通过法律规制算法主体的行为,从最初设计开始,到相关衍生品的制造和应用建构一系列的伦理框架,使算法安全可靠又不失经济效益。自动化决策的逻辑推理进程是典型的算法黑箱的表现形式,尤其是概率论取代数理逻辑成为机器学习的核心,
人工智能时代的法律需要及时补充前沿科技元素的新鲜养分,以预防原则为基准,设计友好算法。友好人工智能安全又实用,其包含的算法易于理解并值得信赖,鲁棒性强、清晰易懂、可以预测,而且不易被黑客操纵。算法黑箱与飞机上的黑匣子类似,其中的运算过程和规则能够被算法工程师查阅,并且以算法的运行效果为依据,进一步升级运算规则,优化数据排列组合,采取更优对策处理问题。但这也会引起算法工程师对于此项专业职权的滥用,这将是下文重点论述的内容。
二、现实难题:算法主体行为的价值偏好及相关权利冲突
算法通过一系列的程序化设置进行运算,简化为数据或符号代码从而得出结论。虽然算法在运算过程中会产生一定程度的数据代码偏差,但是算法的主体框架和运算规则是既定的,算法黑箱只是不在算法用户的认知范围中,在一系列的数据代码背后是算法主体的行为目标和价值选择,不同价值选择会导致相关法律关系主体的权利冲突。
(一)坚持效率优位的算法主体行为
算法作为人工智能技术的核心和关键,算法的价值导向是更优更快地通过程序运行输出结果,算法以效率为首要价值。效率是在一种状态下投入的成本与获得的收益之间的关系,其指向资源配置所能实现的价值最大化。效率包括以最少的成本投入获得同样的收益和以同样的成本投入取得最大的收益两个层面的内容。算法处理大量数据任务和繁复计算的速度和能力比人类更有成效,并且可以帮助人类更有效地进行决策解决问题。算法主体的行为虽然受控于技术中立性的客观要求,但是人基于自主意识的价值预设会将算法设计研发行为指向效率优先的价值考量。无论是算法的设计研发,还是算法相关衍生品的制造和使用,坚持效率优先的价值选择符合技术行为的目标导向。
算法的复杂性影响算法主体行为的复杂性。算法的复杂性特质体现在算法的涌现性和自主性上,算法的涌现性特质使得算法行为不是单一的边界清晰的个体行为,而是复杂集体行为的演化结果;算法的自主性特质使得算法具备自我进化的能力,能进行增强学习。以遗传算法为例,遗传算法是通过模拟和研究自然遗传演进过程求得最优解的方法。遗传算法使用的运算符号来自遗传学,其可以实现字符串的集合或演变,字符串模拟染色体为相关状态和取值编码。通过字符串群体的演变,字符串的变化即遗传会出现程序不曾设计的排列组合,涌现的算法特质直接影响计算的结果并产生蝴蝶效应。算法主体的行为选择处在总体功能的各个性质上可变的样式之中,功能层次的某种逻辑等阶代替了外周神经导体的空间并置。在设计研发遗传算法中,算法主体的行为不可避免地受诸多功能和价值的影响,其设计和研发行为本身可供选择植入的包括安全、公平、效率和秩序等价值要素,但是效率在这些价值要素中的突出地位是其他价值无法取代的。遗传算法借鉴自然界的适者生存和优胜劣汰的进化规律,能最大限度地提高解决问题的效率,也正是基于效率优先的行为价值选择,遗传算法广泛应用于信号处理、机器学习和人工神经网络等领域。
效率优先的价值选择是算法升级进化的重要助推力,但有时会影响公平与正义等法律价值的实现。算法参与决策的基础是,假设算法主体是理性人并且总是偏好更高收益的结果,这意味着算法决策总是采取严格占优策略且总是不选任何劣势策略。在军用航空领域,无人机作战中对地车辆目标识别的算法,基于相关结构设计的算法以追寻更精确且快速的识别小目标为出发点。以最小的成本实现快速精确打击是对算法提出的技术要求,设计研发行为主体并不会特别
(二)算法主体与算法用户的权利冲突
技术追求的效率优先与法律追求的公平正义之间存在冲突,不同价值冲突的背后是相关法律关系主体权利的冲突。算法主体的技术行为自主权与算法用户的隐私权之间会产生冲突。在科学技术是第一生产力的理念主导下,效率优先的价值选择会导致盲目追求技术的升级换代而不顾社会的公平和正义。在法律规范的视野中,算法主体享有算法设计、研发、制造和应用等各个环节的自主选择权限。例如,由于根据人的脸部生物特征信息进行身份辨认能够更加准确直观高效地完成识别任务,人脸识别技术依托的算法运算在不断升级进化,在“自动化安装监控、用户身份确认及相关电子数据的获取、手机与计算机人机界面交互、化妆品效果预览等方面”应用广泛。法律规范并不禁止人脸识别算法的研发和应用,但是无处不在的摄像头通过云计算处理可以实现对公民的实时监控,这严重侵犯了公民的隐私权,并可能进一步限制公民相关的政治权利和自由。技术不成熟和监管机制缺失加剧了人脸识别的滥用风险。当算法的升级进化遇到涌现性和自主性加持的时候,算法用户的信息安全会受到威胁。信息时代算法用户隐私权的保护需要线性加密算法的改进和增强,以应对算法主体可能出现的技术失范行为。
算法主体的知识产权与算法用户的知情权之间的冲突。算法可以申请著作权保护,特定算法绑定硬件设备一起可以作为新型技术申请专利保护,这也就意味着享有知识产权的算法工程师、公司或者社会组织等可以对算法的透明性和公开性提出抗辩。知识产权有特定的保护期限,盲目要求公开算法的源代码和底层数据虽然能一定程度上保护算法终端用户的知情权,但是对于算法相关设备和衍生品的知识产权保护会带来挑战。权利冲突并不都是由侵权行为产生,权利冲突是作为权利本质内核的经过正当性程序评价的利益冲突。“强制要求算法具有可解释性会严重限制算法的潜在优势,因为在人工智能系统的可解释性和准确性之间存在着不可避免的权衡。”算法的程序计算越是复杂,其得出结果的准确度越高,维护算法用户的知情权在一定程度上会减损申请专利的硬件所依托的算法的经济效用。当新型技术专利权与算法终端用户的知情权发生冲突的时候,权利博弈的背后隐含着技术制度建构的空间和需求。
算法技术设计研发的目标是为了高效地解决现实问题并具有未来指向。技术虽然服务于人的目的理性活动,但是技术在功能、责任和价值三个维度上都具有中立的特性。技术中立并不意味着技术本身没有自己的技术规则和价值世界。“价值并非任意建构的,而是起到让共同行动成为可能的重要作用。当价值与规范被共享时,人类也感到深深的愉悦。”立法者要考虑的是,如何通过法律规则和法律价值影响技术规则和技术价值的建构,在此过程中力求最大限度地衡平各种价值,缓和各种权利冲突并一步促进法律规范的健全完善和法律价值的功能实现。
三、制度进路:立法伦理和有限理性合力下的算法立法过程
算法助益于人类的实践理性,并延展了人类的生存和决策空间。技术的中立特质并不妨碍算法蕴含着作为主体的人的价值取向,从规范的视角看,怎样通过立法对算法进行有效的法律规制是在法律价值整合的初始阶段就应当慎重考虑并解决的问题。
(一)算法主体的理性认知要符合立法伦理要求
为算法进行立法需要一个基础伦理规范的统领,这个基础伦理规范体现着立法伦理的要求,立法伦理为法律的内在道德性提供正当性的理由和依据,立法伦理指出法律实践的目标和愿景。“立法者通过塑造公民的习惯而使他们变好。这是所有立法者心中的目标。”作为外在的制度、风习、秩序、规范和准则的伦理,嵌入法律规范之中尤其是进入立法过程会成为特定的立法伦理规范,用以指导立法活动。立法伦理先于法律原则存在,比法律原则更加抽象和宏观,其对立法活动起到统领作用并且影响整个法律运行过程。对算法相关问题进行立法牵涉两个层面的问题,一是要解决好算法主体行为的合法性边界问题,即通过立法伦理限定算法工程师和相关人员的行为边界;二是要解决好算法主体与算法用户的权利冲突问题,法律关系主体之间权利博弈的前置条件是权利边界的互不侵犯,即合法权利之间的冲突。
立法伦理要求算法主体的技术行为符合人类实践的理性目标。立法伦理为法律关系主体行为的合法性和合理性提供了德性基石。人类的理性认知是由德性形成并深受其影响,德性分为理智德性和道德德性,理智德性通过教导发生发展,需要经验和时间,道德德性则通过习惯养成。算法主体行为的合法性边界和算法主体的理性认知紧密相连。人的理性认知具有局限性,局限性的认知有时会导致行为的失范,进而会引发法律责任的承担问题。自动驾驶汽车中自动驾驶程序是各种算法的集合体,编程人员通常用卷积神经网络算法和相关算法研发并构筑自动驾驶汽车的感应系统和决策控制系统。对于自动驾驶汽车的感知系统而言,算法主体能否在技术研发的初始阶段就预判到可能出现的“电车难题”,认识到在紧急状态下生命权发生冲突的时候,自动驾驶程序应急状态下的选择不仅关系个人安危,还影响公共安全。算法主体的预判受理性认知的影响,结合已有的知识结构和经验总结,在遵守职业伦理的前提下具有选择行为合法性的能力,知晓行为合法性的边界。算法工程师需要将安全、正义的价值理念植入使用的算法中,同时算法工程师的行为是德性支配下的合法活动,才能最大限度地维护公共利益和安全。
立法伦理要求算法主体的技术行为符合法律的价值追求。在算法主体的自主权和知识产权分别与算法用户的隐私权和知情权发生冲突的时候,法律如何平衡权利冲突需要回归到法律的价值位阶问题上。权利之所以超越利益是因为它被赋予了更高层面的道德意义。利益可以被替代并可以在市场上自由交换,但是权利很少是绝对或不具弹性的,因为很难对它赋予经济价值。当多种权利交织在一起不能被量化确定优先保护的时候,立法伦理可以提供立法程序和法律规范意义上的道德标准,立法伦理的要求以权利保护机制的建立和健全得以实现和转化。算法工程师所从事的编程活动和算法研发行为具有高度的专业性和复杂性,这是由算法本身的涌现性和自主性决定的。“无论是法律的社会价值、法律的群体价值和法律的个人价值实质上都是服从和服务于人”,为算法立法,用法律规制算法主体行为的目的是确立算法工程师编程的合理规则,在既定编程规则下,优化升级算法,使人工智能技术扩大人类的实践范围并增强实践能力。立法伦理为算法主体的行为确立基本的编程规则和价值优先顺序,使其行为符合法律内在道德性的要求,同时助益于公平正义等价值目标的实现。
(二)有限理性支配下的算法立法过程
法律关系的主体是在有限理性支配下从事法律实践活动的,肯定人的有限理性是理解并规制算法主体行为的逻辑密匙。作为主体性的人的理智德性和道德德性的二分形塑了有限理性的基本形态。人的认知能力是有限的,人在设计算法之初会将人类的思维方式和价值取向设计进算法的底层逻辑,随着程序和系统性能的增强而不断将这些思考方式和逻辑推演外化,在这种意义上,算法从一开始就不是价值中立的。有时候恶行化身比恶行本身更糟糕。当我们规制算法的时候首先想到的不应该是算法是恶的和坏的,由于设计研发算法的算法工程师的行为赋予了其价值偏好,并在实践过程中呈现出善恶的不同面目。算法主体会为了提高经济收益,不断尝试新的方法或者组合来获得算法的进化升级。进化的方法基于成功的东西更有可能在将来经常出现这一原则,新的行为模式可能作为旧行为的随机变形,或者新的策略在以往经验和如何在将来做得最好的理性基础上形成。算法的升级和优化是为了进一步扩大人类有限理性认知的范围,提升判断和决策能力,从而更好地给人类的行为认知赋能。
人类的有限理性是算法底层逻辑的道德基础,算法的底层指令和代码归根结底是人类的思考方式的展现,在这一逻辑前提下,为算法立法的过程就还原为对于算法主体行为的法律规制问题上。立法不仅载述既有事实,而且对憧憬中可能且必需的社会生活作出应然的描述,经由事先规定,拟制性地认定其合法性与正当性。算法工程师通过模型化的方式处理复杂的多变量、非线性、零信息和动态博弈的问题,算法立法模式的选择应该尊重算法工程师的职业特点和发展规律。通过立法可以要求公开算法的源代码和运算过程,使得算法的透明性和可解释性增强,例如欧盟的《通用数据保护条例》序言中明确“公平和透明的处理原则要求数据主体被告知处理操作的存在和其目的”。正由于人类的有限理性,公开和透明的处理原则的设置可以在一定程度上避免偏见、阻断直观符合预期的效用和假设。但是立法不能一味地要求算法具有绝对可解释性,也就是说算法主体对其进行的技术行为在涉及秘密信息和不宜公开的事项方面具有一定的保留权,这样一方面可以降低算法绝对可解释性带来的专利受损,另一方面也有利于算法创新和技术进步。
在人类有限理性支配下的立法过程中,需要首先明确算法治理的立法模式。如果说欧盟的《通用数据保护条例》是家长式的全景式统一立法,那么美国的专门具体立法模式使得算法用户的数据信息保护更加具有针对性。欧盟一站式的数据监管模式降低了企业的合规成本,规定统一的数据安全保障标准有利于提高用户的信任水平,塑造欧盟在数字经济时代的独特竞争优势。但是统一的立法模式前期立法论证、立法前评估的成本较高,在立法准备、从法案到法、立法完善和立法监督整个立法过程中,统一的立法模式可以为算法治理和数据信息保护提供完整的法律遵循。美国在现有法律文本中增加与数据信息相关的条文,以适应算法升级和优化的需要,一方面能够聚焦到算法主体行为的特定领域,如算法用户(消费者、未成年人等弱势群体)的隐私权保护、算法处理者(数据中间商)应当履行更多的算法透明义务等。另一方面,通过完善现有的法律规定能够在短期内更有效地对算法治理提供法律依据,相比统一立法模式,美国的算法治理方式更具有高效锁定的特点。人类的理智德性和道德德性影响人的认知能力,决定了人的有限理性的经纬度,并提供了人类认识良善的伦理价值标准。人类认知能力并非无限决定了人类的立法过程也是一个不断修正并完善的过程。为算法立法是一个制度选择的过程,选择何种治理模式需要结合技术发展的阶段性特点并预留制度变量的空间。对于算法主体行为的规制关键在于对算法控制者和处理者的数据行为进行有效约束。
四、迈向正义:从立法原则到法律规范规制算法主体行为
信息时代的立法活动面临技术更新迭代的崭新命题,立法伦理为算法主体的技术行为提供了内在的制度准则和规范指引。智慧社会快速发展的背后依托一系列的数据、算法和算力,算法正义的最终实现依赖于算法主体的良善行为。从抽象的立法原则到具体的法律规范都需要具有大数据时代的技术面向,立法者需要从法律制度层面保障算法主体和算法用户的合法权利,同时更要明确算法控制者和处理者的行为边界。
(一)确立算法主体技术行为的基本准则
从立法原则层面确立算法主体技术行为的基本准则。立法者以伦理要求为基础,在理性的世界中成为社会治理的规则使者,立法伦理促使立法者基于利益共同体的需要形成一系列的立法原则和规范体系。算法作为一种人工建构,只有在遵循人类主体地位的“善法”前提下才能以有责任感的方式推进算法进化并在机器中合法嵌入。良法是善治的前提,立法的伦理要求贯穿整个立法过程并以立法原则的方式指导立法活动。我国目前法律中关于技术主体行为的规定主要是原则性的,内容主要集中在个人信息安全、个人隐私等散见于《刑法》《消费者权益保护法》《电子商务法》《网络安全法》《征信业条例》《网络交易管理办法》等相关条文中,这种立法模式类似于美国的立法模式,虽然不成系统,但对于涉及技术安全和技术隐患的行为以预防原则为主并对相关行为施以责罚。伴随着人工智能时代的到来,这些法律规定需要结合时代特点和技术发展的未来趋势作出适时的调整和完善,这也是科学立法原则的要求和体现。
算法主体行为的基本准则和伦理规范需要立法原则层面的规定。算法主体的技术行为准则要充分反映并符合算法优化升级的客观规律要求,坚持科学设置,创新优先,兼顾正义,实现平等的基本价值目标。技术行为的基本准则力求重塑技术主体所在的组织结构,保障技术主体伦理自主性的发挥,克服科层制对技术主体伦理行为的消极影响。科学立法原则要求任何立法活动都要适应经济社会发展的需要,应对人工智能时代的各种崭新命题,尤其要对“算法帝国”中的国家责任和权力界限、公民、法人和其他组织的权利与义务进行科学合理地规定。算法主体的基本行为准则需要遵循科学立法原则的要求,技术行为依然是在宪法和法律范围内的活动,不能超越法律的边界。对于法律没有涉及的技术行为的空白地带,算法主体要严格恪守职业伦理的要求,遵从理智德性和道德德性的行为指引,不能从事威胁人类伦理安全的技术行为实验。例如基因编辑婴儿事件,实际上是实验者在局部改变人类的基因算法。面对算法不断升级迭代,立法保障科技向善具有紧迫性和必要性,算法主体技术行为的基本准则能够保障科学技术实验活动的道德面向,使算法主体的行为在不违背人类伦理规范的前提下有序进行。
(二)划定算法主体行为的权利边界
在立法技术层面划定算法主体行为的权利边界。立法原则层面的规定是解决算法主体行为规范有没有的问题,我们需要进一步
划定算法主体行为的边界对于立法者而言并不容易,因为技术的发展具有偶然的跨越性,在法无禁止即可为的前提下列出算法主体技术行为的负面清单,通过对相关行为给予否定性的评价来确定行为的合法性边界和范围。法律经验主义的特质使得法律人(立法者)普遍具有制度主义的倾向,但是使立法者成为好的制度主义者的案件相关性会阻碍其准确看到真实的世界,经济理论能够通过模型建构使立法者重新审视真实的世界并且洞察曾经忽略的法律结构。例如,算法相关程序的开发者不能违法搜集算法终端用户的信息,网购过程同时会伴随着算法处理者从用户信息的收集开始进行数据画像,然后运用算法预测完成个性化的推送,在这一过程中,由于关涉算法终端用户信息的个人隐私权,而这些信息本身具有巨大且潜在的商业价值常被违法收集或者不法使用。算法主体行为的负面清单制度指向算法主体有限理性这一认知前提,通过筛选不法行为来明确算法研发和设计行为的合法性边界,能建立算法主体不法行为的预警机制,最大限度地节约立法资源、降低立法成本。结合算法本身的技术特征和发展阶段,对于有悖于人类伦理、正义标准和平等理念的算法控制者和处理者的相关行为给予否定性的评价,能够在对算法主体赋权与限权之间寻找到法律治理的平衡。
(三)设置国家层面的算法管理和追责机构
从程序机制层面设置国家层面的算法管理和追责机构。算法主体行为的基本准则和其权利边界的设定从内容上保障了算法治理的实体正义问题,而设立算法管理和追责机构则是从程序机制上确保算法主体行为的责任落实。我们讨论算法主体行为的法律规制问题是在现有法律体系和治理架构的前提下,并不是要重构现有的法律规则体系和治理模式。“在立法工作中同时存在着两种似乎是互不相容的情形:它既是一项超出人的力量的事业,而在执行方面它又是一个无形的权威。”设置国家层面的算法管理和追责机构对于算法相关法律的执行意义重大。我国相关法律条文规定的法律责任条款都是原则性的,可执行力较差。例如《消费者权益保护法》第56条规定的工商行政管理部门或者其他有关行政部门在法律、法规未作规定时,可以对侵害消费者个人信息权的行为予以处罚,但是不管是工商行政管理部门还是其他有关行政部门都没有此项职权,至少在现有的法律法规和行政规章中没有赋予这些部门的信息保护职权,因而当实践中发生算法侵权行为时如何追责成为一个非常棘手的问题。
设置国家层面的算法管理和追责机构能够从程序机制上保护算法用户的合法权利得到有效救济。“立法的论证以在自由的道德与政治限制间进行衡量和平衡的过程为标志。立法的理性性质要求一种原则性的框架。在这个框架的帮助下,外在限制可以得到论证。论证是合法化过程的一部分。”算法管理和追责机构的建立同样需要在立法过程中予以充分论证以确保存在的合法性。我国没有专门的国家层面的算法管理和追责机构,主要由各个行业的主管机构进行监管,而每个行业的监管标准和监管力度迥异。例如金融商业领域和医疗领域的用户信息保护基于商业伦理和医疗伦理的标准本身就不一致,商业伦理注重效率和收益,而医疗领域注重人道和安全。如何协调不同行业的监管标准以确立技术行为的伦理位阶需要明确的上位国家行政管理机关授权。“规范本身并没有确立具有固定联系的机构之间的相互依赖状态,它作为在特定情况下的功能,通过一种可感的和确定的形式把这种状态表现出来。”国家层面的算法管理和追责机构的设置要综合考量我国现有国家机构的权力格局、职权种类和权限配置等因素,按照《深化党和国家机构改革方案》的要求,秉承精简高效的原则。立法者根据人工智能技术发展的阶段性特征,结合算法监管的实际需要,将算法管理和追责的职权赋予现有的国家行政管理机关也是实现算法用户权利保护和救济的有效方式。
(四)明确并提高算法主体的职业伦理要求
在价值规范层面明确并提高算法主体的职业伦理要求。法律不单纯是一种知识,还是一种感受,它不仅存在于人们的头脑中,而且还存在于人们的心目中。几乎在法律的任何领域,科学的探讨开始之前,情感就已经选择了答案。情感不是判断真理的标准,它取决于教育、习惯、职业、秉性等,具有偶然性。算法控制者和算法处理者职业伦理水平的提高有赖于其职业共同体的整体情感认同和价值认同。从立法原则到法律规范全面规制算法主体的行为只是一种外部的法律规范性要求,行为规范的有效遵守需要行为主体高度的道德自律,这才是内部的规范性要求。规制算法的核心问题是如何保护公民和社会整体的利益,并使这一进程更加有效。设计灵活多样的决策算法而不是一味地追求完全透明,以便使相关算法更好地与法律和政策目标相结合。
有效防范并化解算法的技术风险需要从风险产生的源头、制造风险的算法主体入手,设计研发科学合理并在一定程度上可解释的算法需要算法相关职业共同体的合力。首先,算法主体科技伦理的全面培育。算法主体需要履行涉及技术安全风险的诚信告知义务,这是算法技术伦理规范的重要内容,也是规避算法技术风险的重要前提条件。立法伦理对算法主体的技术行为提出了符合人类实践理性的目标和法律价值目标,全面培育算法控制者和算法处理者科技伦理,才能从算法技术行为实践中尽可能预防并化解技术风险。其次,算法主体职业伦理的内化于心。法律具有强制执行的效力,但是只靠强制性的方式和手段法律运行的成本较大,难以最终实现社会福利的最大化。“法律人必须掌握社会固有的价值体系,在它的架构内,解决法律系统在发展为求取正义的制度时所导致的许多问题。”在人类有限理性的认识论前提下,全面培育算法主体的科技伦理素养,更重要的是将其内化于心指导实践活动。按照社会价值系统的指引,算法主体只有将职业伦理内化于心,接受算法技术风险的道德评价,才能主动承担算法技术风险和伦理责任。再次,算法主体德性高度的整体提升。一个良善规则并不在于它是一个本质良善的规则,而在于它具有使其完成任务的特征。研发设计科学合理友好的算法是算法主体的技术职责,算法更好地服务于人类的实践活动是算法主体行为的价值追求。例如,在电影评分中,表面上由每个人的评分组成的群体均分是按照特定的算法统计得出的,但是不同的评分机制背后的价值预设不同。科学的算法为群体均分提供了正义标准,算法正义赋予了电影评价的合法性。算法主体理智德性和道德德性高度的整体提升为算法技术伦理评价的制度化提供了现实路径。
结语
科学具有累积性,每一代人都把科学大厦建立在前人所获得的自然知识的基础上,但科学也总是向外探索自然,通过经验观察和新的实验可以为其补充内容。算法是由设计者创造出来并且被人所用,算法就是通过一系列的程序化设置进行运算,简化为数据或者符号从而得出结论。人工智能法律规制在立法技术上面临着的问题是,法律规制如何将以人工智能为基础的法律事实和人关联起来,也就是说如何将人工智能置于法律关系中。法律与算法交互作用,进一步塑造新的价值理念并提出更高的伦理要求。正义在任何一种社会生活中都是一种绝对必要的因素,作为社会制度的重要组成部分,从一开始就嵌入在一种社会框架中。技术的更新迭代改变了人类的生活方式,以算法为灵魂的程序和人工智能影响着人类社会的治理模式。超人工智能可否成为法律关系的主体,首先是一个哲学问题,其次才是法学家和立法者要考虑的问题。
“每个社会面临的不仅是‘或然的未来’的连续,而且有许多‘可能的未来’的集合,以及因对未来怀着不同的向往所引起的冲突。控制未来,意味着将或然的未来转变成可能的未来,并谋求一致的向往目标。”寻求终极算法并不是研究算法理论的最终目的,如何有效模拟人类认知和情感的多个模块间的相互作用才是深度学习的重点,这也是迈向超级人工智能的关键所在。法律所具有的预测功能具有未来指向,法律规范对于终极算法的规制依然是对作为主体的行为人的规制。不管人工智能发展到哪个阶段,终极算法是否真的介入真实的生活,法律依然是社会中最高的规范体系,具有调整任何行为类型的权威。在构建智慧社会的今天,越来越多的算法和算法相关产品是满足公权力的需要所研发设计的,政府掌控着信息和数据的自主权和使用权,在规制算法主体行为的同时,如何合法限制公权力使用算法的行为边界也是进一步值得探讨的问题。
《数字法治》专题由华东政法大学数字法治研究院供稿。专题统筹:秦前松