首页 理论教育 我国路径选择:人工智能技术的发展、标准与责任

我国路径选择:人工智能技术的发展、标准与责任

时间:2023-07-05 理论教育 版权反馈
【摘要】:郑戈教授认为,我国应当在人工智能技术研发和应用的实践基础上,衡量公共利益、行业利益和个人利益,由政府部门制定行业发展的相关技术标准。在人工智能技术的研发与应用过程中,需要确定算法标准,防范因算法缺陷或漏洞出现危及安全的技术问题。通过公法路径制定人工智能技术研发与应用的行业标准确有必要,但是,这并不妨碍我国从私法路径反思和重构民事法律责任规则体系。

我国路径选择:人工智能技术的发展、标准与责任

“网络法在中国的变迁大致遵循两类逻辑:外生性的政治/监管逻辑和内生性的商业逻辑。”[5]当目光游离于人工智能宏大叙事与具体应用之间时,政治逻辑主导下的管理性规则与商业逻辑主导下的生产性规则都是需要关注的重点。

法律科技之间存在“相生相克”的微妙关系。一方面,在技术研发与应用相对稳定的时期,技术进步需要法律保障,法律在技术进步中不断丰富和完善;另一方面,在技术研发或应用变革的时期,法律掣肘技术进步或者技术进步游走于法律边缘甚至突破法律设置的藩篱。法律与科技之间的关系处于动态变化过程中,设计人工智能技术研发与应用的法律规范体系需要考虑科技发展的状况并进行动态调整。

我国掀起了人工智能技术研发与应用的高潮。技术变革日新月异,场景化技术应用的范围不断扩张,法律与社会生活之间的鸿沟随之产生。人工智能技术研发的边界、应用场景的范围、致害行为的预防与责任分配等问题在原有的法律体系框架内难以找到完满的答案,需要调整规则设计。在人工智能研发与应用的场景和前景尚不明朗的阶段,为行业发展设定安全底线和方向是法律规则设计最为紧迫和主要的目标,超前设计民事法律责任的归属与分配有制约行业发展之嫌。政府制定技术标准、安全标准等规范人工智能行业的行为,能够保证人工智能技术的研发与应用坚守伦理和安全的底线,有利于行业发展和规划布局。郑戈教授认为,我国应当在人工智能技术研发和应用的实践基础上,衡量公共利益、行业利益和个人利益,由政府部门制定行业发展的相关技术标准。[6](www.xing528.com)

人工智能技术的研发与应用涉及程序设计、数据采集、产品制造等环节,技术标准也围绕这些环节展开,包括设计标准、数据采集标准、安全标准、制造标准等。具体而言:第一,设计标准。算法是人工智能程序设计中的重要环节,算法标准在设计标准中举足轻重。在人工智能技术的研发与应用过程中,需要确定算法标准,防范因算法缺陷或漏洞出现危及安全的技术问题。此外,人工智能技术的研发与应用在设计上需要符合共识性基本伦理道德的要求。第二,数据采集标准。数据采集和分析涉及隐私权和个人信息权,为防止隐私和个人信息泄露或被滥用,需要为相关技术设置法律规则,使得人工智能技术的研发和应用符合隐私保护和个人信息保护的要求,保障隐私和个人信息安全。第三,安全标准。建立人工智能产品标准化体系,保障消费者人身及财产安全。“美国《联邦自动驾驶汽车政策》在‘安全评估’章节中具体提出了自动驾驶汽车设计、测试与应用所涉及的十五项安全标准”[7],《自动驾驶法案》《自动驾驶系统2.0:安全愿景》《准备迎接未来交通:自动驾驶汽车3.0》《邮政行业标准:智能快件箱》等规范性文件对人工智能产品的安全标准都进行了规定。第四,制造标准。人工智能是无形的,但是人工智能机器或设备是有形的,制造人工智能产品的有形载体需要符合一定的制造标准。

通过公法路径制定人工智能技术研发与应用的行业标准确有必要,但是,这并不妨碍我国从私法路径反思和重构民事法律责任规则体系。人工智能的普遍应用将诱发法律体系的颠覆性变革。[8]而这一变革首先或直接体现在民事法律责任规则体系方面。人工智能的研发和应用中产生的新型民事法律责任应当由谁承担以及如何承担等问题出现。人工智能时代智能机器(人)的行为可能出现脱离设计者控制、自主独立运行的特征,既有的合同责任规则与非合同责任规则暴露出缺陷和不足。从合同责任方面而言,人工智能时代因智能机器(人)的参与导致合同当事人的选择、合同条款的磋商以及合同执行出现变化,合同责任规则的适用环境发生变化要求对相应的规则进行调整。从非合同责任方面而言,以行为人为中心的侵权责任和以生产者为中心的产品责任在分散人工智能时代智能机器(人)造成的财产损失和人身损失方面存在局限性,人工智能时代需要建立新型民事法律责任规则体系,保障人工智能科技创新与产业发展。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈