首页 理论教育 个人信息侵权问题与应对探讨

个人信息侵权问题与应对探讨

时间:2023-11-18 理论教育 版权反馈
【摘要】:目前,我国已经制定人工智能战略规划,并且将其上升到国家发展的战略高度。新技术要发展普及,但是不能忽视对于群众权利的保护,人工智能带来的侵权问题以及应对是新的研究方向。人工智能产品的丰富与普及,各种类型的智能机器人便捷了个人信息的获取和收集,全面监控人类生活,隐私获取的可能性提高。

个人信息侵权问题与应对探讨

杨雁茜 西北政法大学

【摘要】人工智能时代的到来,方便了人类生活,智能化的生活、工作是科技的进步,是时代的发展。但伴随而来的是侵犯个人信息的问题,大数据侵犯人类隐私,算法带来“信息茧房”,都给人们生活带来了困扰。文章通过分析侵犯权利的风险,提出应对策略,只有技术不断发展、健全相关法律制度、多部门联合监督治理、企业依法管理、个人提高保护意识,才能更好地应对侵权问题。

【关键词】人工智能;侵权

近些年,全球人工智能技术迅速发展,基于算法、大数据,AI技术运用于各行各业,仓储物流、工业制造、客服等重复简单的工作已经被智能机器人所取代。目前,我国已经制定人工智能战略规划,并且将其上升到国家发展的战略高度。随着5G时代的到来,人工智能作为新兴产业,其应用必将爆发新动能。

我国仍然处于人工智能的发展阶段,美国、英国注重人工智能的基础研究,日本德国偏向人工智能的行业应用。当下也称作弱人工智能时代,单个领域发展很强,例如2016年3月,AlphaGo对战世界围棋冠军、职业九段选手李世石,最终以4∶1的总比分获胜,这是人工智能的一次胜利。人工智能带来新的生活、生产方式,不可以避免地伴随着安全、法律等问题,侵权的现象也逐渐频发。新技术要发展普及,但是不能忽视对于群众权利的保护,人工智能带来的侵权问题以及应对是新的研究方向。

一、人工智能时代的探究

(一)人工智能内涵

人工智能的兴起,来源于1956年的一次人工智能的研讨大会,以麦卡锡、明斯基等为首的一批科学家首次提出“人工智能”这一术语,这标志着“人工智能”的正式诞生,定义为“使机器做需要由人的智能来做的事情”。学者邵国松、黄琪认为人工智能首先是一门科学,其次是利用科学技术创造出来的“类人脑”或“超人脑”的智能机器、智能系统或智能软件。[1]

(二)人工智能的应用

对人工智能的研究从探讨人类智能机械化的可能性到如何让计算机理解自然语言、自动回答问题、分析图像,再到以知识为中心的发展阶段,技术不断革新,领域不断拓宽。目前,人工智能技术正在向大型分布式人工智能、多专家协同系统,以及大型分布式人工智能开发环境和分布式环境下的多智能体协同系统等方向发展。

信息化的社会,机器逐渐渗透我们生活的各个角落,各种智能产品进入我们的生活,如语音助手Siri帮助我们发短信、记备忘录、进行聊天等,以及具有AI功能的手机无人驾驶汽车等。在生产制造环节,利用3D和AI视觉技术进行产品质检,3D打印机优化生产过程,这些无不展示着人工智能的存在。

二、我国法律对个人信息的保护现状

目前许多发达国家都有关于个人信息安全的相关法律,例如美国的《隐私法》、欧盟的《通用数据保护条例》、德国的《个人资料保护法》、日本的《个人信息保护法》等。由于我国还没出台统一的个人信息保护法,关于个人信息的概念引自其他法律法规等。在新颁布的《中华人民共和国民法典人格权编的第六章中提到“隐私权和个人信息保护”,总结确立了隐私权和个人信息保护的基本规则。目前,我国立法机关也正在起草个人信息保护法,未来的《个人信息保护法》将与《中华人民共和国民法典》的相关规定配合起来,全面保护个人信息。

关于计算机领域的侵权规定主要体现在《中华人民共和国侵权责任法》第三十六条,关于网络用户和网络提供者的侵权规定。但是对于人工智能背景下的软件程序设计者、软件著作权所有者和使用者的责任承担规定并不明确。

在人工智能的运行过程中,针对不同用户提供个性化服务的过程是一个收集用户信息、生成新信息的过程。目前,由于技术、监管等的不完善,大数据常常监控人类生活,造成个人权利被侵犯。

部分欧美国家针对数据利用的职责进行了落实,对员工行为、数据公开以及利用、监督等多个方面明确职责,通过采用责任制,可落实数据采集者与使用者的个人信息管理职责。以数据使用为侧重点,通过“告知与同意”,消费者可具备对企业的选择权,企业在收集个人信息时由消费者进行控制,并由消费者对个人数据使用的后果进行评估与责任承担,使用个人信息时能够对活动的透明度予以增强。

三、人工智能侵犯权利的表现

隐私是指用户认为是自身敏感的且不愿意公开的信息。Banisar等学者把个人隐私分为四类:(1)信息隐私,即个人数据的管理和使用,包括身份证号、银行账号、收入和财产状况、婚姻家庭成员医疗档案、消费和需求信息、网络活动踪迹(如IP地址、浏览踪迹、活动内容)等;

(2)通信隐私,即个人使用各种通信方式和其他人的交流,包括电话、QQ、E-mail、微信等;(3)空间隐私,即个人出入的特定空间或区域,包括家庭住址、工作单位以及个人出入的公共场所等;(4)身体隐私,即保护个人身体的完整性,防止侵入性操作,如药物测试等。[2]

(一)大数据侵犯人类隐私

有观点认为,大数据是指规模大且复杂,以致很难用现有数据库管理工具或数据处理应用来处理的数据集。(《大数据安全与隐私保护》,作者:冯登国、张敏、李昊)大数据时代,人们面临的威胁并不仅限于个人隐私泄露。与其他信息一样,大数据在存储、处理、传输等过程中面临诸多安全风险。公开的个人信息可以被合理利用,而隐私信息则侧重于个人尚未公开或者不愿意公开的信息,一般不倾向于被人利用。

人工智能产品的丰富与普及,各种类型的智能机器人便捷了个人信息的获取和收集,全面监控人类生活,隐私获取的可能性提高。人们不愿意公开的事情或秘密也容易被收集,加剧隐私泄露风险。

1.侵犯物理空间?

当下的人工智能产品种类丰富,通过一个控制器便可以控制房间内的所有电器。这些家用电器可以在个人的指挥下从事一定的活动,但也默许获取个人的声音、图像。在这样的智能技术包围之下,个人在住宅之内的一切活动便无处可藏,全然暴露在人工智能的监视之下,后台服务器可以轻而易举地读取个人的所有活动信息,私人隐私无所遁形。

不仅是私人空间,公共空间也是如此。人工智能拥有高清的、智能的图像识别技术,在视频监控中得到了广泛应用。摄像头上传网络,再加上精准的图像识别技术,可以使公民在公共场合之下,如电视直播般无处可藏。更有甚者,倘若一个人在街边玩手机,街道上的高清监控摄像头甚至可以拍摄出手机屏幕上的文字与图片信息。

国家大力支持人工智能产业的发展,投入资金,加强科技研发,都促进了人工智能企业的扩大,增加了税收,也促进了一部分人的就业。在追逐利益的过程中,也存在着一定的风险。人工智能在军事领域的运用,如果在不正当利益的促使下,可能造成国家军事信息的泄露,影响国家安全。企业和个人也有可能为了利益而利用人工智能技术侵权。人们的隐私、秘密数据随时都有可能被泄露。

另外,当今人们的身体隐私也遭到了不同程度的侵犯。健康隐私的内涵涉及患者在病历中的详细记载,如病情、个人史、家族史、接触史、身体隐私部位、异常生理物征等病理和个人生活秘密。

许多隐私都是在个人不知情的情况下泄露出去的,有些患者担心自己的疾病被泄露出去而引发焦虑,整天提心吊胆,甚至产生精神疾病。例如患有艾滋病的群体,目前我们一直“谈艾色变”,造成他们在找工作等过程中受到了歧视,但是艾滋病的传播途径我们都了解,简单的日常接触是不会有危险的。人工智能在辅助治疗诊断的过程中,可能会发生隐私安全问题。

2.侵犯网络空间

随着互联网的普及,网民的日益增加,人们获取信息越来越依赖网络,同时网络空间也开始出现一系列侵权问题。

传统隐私权的内容不得不大量增加,空间隐私权的内涵也从物理空间扩展至网络空间,隐私权保护的重心从物理空间逐步转向网络空间的数据信息隐私。人工智能技术的背后,依托的是公民作为个人或者整体的数据信息。无论上网痕迹、语音通话,还是消费记录、出行路线等,都在我们意识到甚至没有意识到的时候,被输入了网络,随时面临数据收集再加工利用的危险。面对各种网络服务提供者,公民个人在使用这些服务前,总是需要按照企业提供的格式条款来进行同意、注册,否则便不能享受这些服务。一些软件借此获取用户的地理位置、摄像头、短信等权限,否则就无法开启。多数人会选择开启权限,因此个人信息,包括隐私信息也就轻而易举地被企业所获取,甚至利用。

获取公民网络空间数据的“合理利用”情况主要有两种:其一,国家出于社会治理的需要,对公民的网络空间数据进行抓取;其二,企业出于商业目的对公民网络空间数据的获取。国家或者企业在对这些信息进行抓取时,可能不会加以甄别;即使进行甄别筛选,也是在读取数据信息之后才有可能进行。其实,无论是国家还是企业,在以“合理利用”为目的的情况下,其对于公民网络空间信息的获取,在一定程度上会方便公民生活,从而产生积极效应。

除“合理利用”之外,个人信息还有可能被“非法利用”。在人工智能时代,人们的活动已经离不开网络,我们在手机、电脑以及云盘中都储藏着大量的个人信息。很多信息是不加密的,即便有密码,技术高端的“黑客”也可以突破防火墙,入侵电脑,获取想要的一切信息。现在的窃取技术更加发达、隐蔽,对于普通人或者明星等来说,一旦某些信息被盗取或者泄露,后果可能是非常严重的,甚至会影响未来的发展。

(二)算法推荐造成“信息茧房”

算法推荐是我们在各种软件应用过程中常见的,算法权力在塑造文化和社会的同时,去影响甚至控制个人的选择和生活。比如,当我们在浏览购物软件时,搜索了某项商品,服务器自动读取搜索记录,并在相关应用中推荐同类商品,对同类商品搜索或者关注越多,服务器对相关商品的推荐也就越多。这种算法推荐属于“预测性分析”。虽然这种情况在刚开始时会方便人们的生活,但是,时间长了我们就会发现,算法推荐左右着我们的选择,极大地干扰了我们对个人生活进行自我选择的能力,甚至可以说在一定程度上,人工智能在代替我们进行选择、决策

凯斯·桑斯坦教授在《信息乌托邦》中首次提出“信息茧房”概念,由于“信息茧房”的存在,人们只会选择和接触与自己意见相同或近似的人群,采纳符合自己预期的观点,于是逐渐形成“回音室效应”(Echo Chambers),个人所认同的意见和观点,以及所感兴趣的事物,都会在这种传播场域中得到“正反馈”式的激励和放大,所谓“强者愈强,弱者愈弱”。[3]

在选择性接触机制之下,人们只选择性关注、理解、记忆自己所需要的内容,最终作茧自缚,无法把握整体的社会环境,长此以往将无法获得全面的判断。“信息茧房”如今不仅是自己选择造成的,在人工智能环境下,大数据技术的精准推送、过滤机制,从客观上阻碍了我们接触全面的社会,了解各方面的信息。(www.xing528.com)

四、人工智能时代个人信息风险的困境

人工智能时代个人信息出现风险的可能性提高了,人工智能技术尚需提高,个人保护信息的意识不强,都带来了风险,而隐私侵权后果具有严重性。

(一)人工智能存在技术局限

每项技术无论发展到什么阶段,都存在技术漏洞,这是无法避免的。各类智能设备的发明,方便人们的广泛使用,便捷了生活,但也出现了信息泄露的问题。依托算法和数据的人工智能虽然具有先进的技术,但也有其局限性。

人工智能技术具有不确定性。信息安全产业最不可忽视,例如我们的无人驾驶汽车如此依赖于电脑、互联网,那么电脑病毒、网络“黑客”,以及系统自身的错误,都有可能造成新的事故隐患,这些都导致无人驾驶汽车不能立刻普及全国。如果出现障碍物、程序出错等情况,突发安全事故不能及时应对,无法预测接下来会发生的事情。

另外,人工智能对于人类语言行为的识别有不确定性。人类的语言表达和肢体行为受情感表达的影响,具有模糊性,有时候智能产品无法准确有效地读取信息。未来人工智能也存在不可知性。我们无法预料未来的发展,这是超乎我们想象的。

人工智能也带来了侵权责任主体的复杂性。在人工智能时代以前,人类社会已经形成了较为完善的侵权责任规范体系,但是,人工智能的出现,打破了这一稳定的结构。因为,在侵权行为发生后,我们可能无法确定这一侵权行为究竟是人工智能哪个部分的责任,还是由人工智能的“自我意志”决定的。当然,已经有不少学者提出,应赋予人工智能以法律主体资格,但是,至今仍无明确的法律规定,这进一步增加了人工智能侵权主体的复杂性。除此之外,侵权方式也具有复杂性。不同于传统的隐私侵权,人工智能的应用增加了隐私侵权的形式和手段,使侵权形式更加多样化,如非法监控、盗取数据等。通过网络,人工智能对隐私进行“窃取”的方式还在不断“推新”。

(二)个人隐私保护意识弱

如今,手机的普及,各类应用软件应有尽有,每个人的手机里有大大小小几十个应用软件。这些应用软件或者一些网站,强制要求获取用户手机的存储、拍照、录音等权限,还有一些应用软件在推广过程中通过分发一些小礼品鼓励用户注册,从而获取用户的个人信息,一旦用户的信息被不法分子所获,便会被售卖,或者不法分子拿着这些信息进行贷款等非法行为。信息本身没有价值,但二次利用后可以提高价值,对于企业来说,数据就是财产。一些不良企业追求经济利益,将用户的个人信息随意散布、倒买倒卖。而很多人的信息保护意识较差,认为自己不是重要人物,信息不值钱,泄露出去也不会对自身造成大的影响。对于信息的非法利用和手段等不了解,直到危及个人财产等问题出现后,才发现个人信息的重要性。

五、保护个人信息安全的途径

5G时代即将到来,人工智能技术将会面临更大的挑战,如何规范且有效地处理数据,是新的难题。多部门联合监督治理、企业依法管理、个人提高保护意识,只有全面努力,才能应对人工智能带来的侵权问题。

(一)健全监督机制

建立事前、事后监管机制。事前与事后监管是行政对市场的适当干预,虽然市场经济主张由市场配置,我国当前行政领域也在大力提倡简政放权,但是在人工智能发展初期,适当监管具有较大的优势,不仅保障了人工智能准入制度,增加了公众对人工智能的信任度,也是区分责任的重要标准,符合审批制度的侵权与不符合审批制度的侵权应该区别对待,鼓励设计者以及所有者加强自身责任管制。

设置专门的人工智能机构。在经济较发达的地区不妨设立人工智能管理委员会,对人工智能业务的开展进行监管。我国传统的体制结构倾向于将人工智能归入单独的政府部门或其他行政机构进行管理,但是人工智能侵权往往具有复杂性特点,对机构人员的业务水平要求较高。基于此,通过加强人工智能专门人才的建设,为专门委员会奠定人才储备基础也是应有之义。与事前登记和事后惩罚措施相比,专门委员会的设立侧重于对职能部门的结构调整,侧重于加强监管力度。政府在设立人工智能专门委员会进行监管的同时,应该集中各种社会力量,共同促进人工智能的健康、可持续发展

(二)不断提高人工智能技术

技术层面的提高才能够保障信息更安全可靠。数据能够带来效益,也能够毁掉一个企业的发展。在APP的研发创作过程中要注意选择,合理规范地采集用户的信息,不能将获取个人信息作为默认选项。通过使用数据需身份认证、标清来源等方法进行保护。“去个人化”的信息处理,又称匿名化,将用户的个人信息中有关隐私的敏感部分进行隐藏。群体的共性按需求选择,每个群体的个性数据不需要全部被收集。利用各种技术手段“去个人化”,防止信息可以随时被识别。只有这样,信息泄露的风险才能够降到最低,避免我们的权益受到损害。

我们选择信息有时是随机不确定的,但是算法在判断不清楚的情况下,仍然简单地按照标签化的方式推送信息。这样的人工智能并没有达到完全的智能化,忽视了人内心的复杂性,人的行为会受到环境、情绪等不确定性因素的影响,人工智能还需要研究人类的心理、复杂的行为,不断完善。如今的人工智能技术更应该打破自我的封闭,提供异质化的信息,让社会全面整合。

(三)企业加强自律

在注意力经济时代,传媒产业为了获得最大的流量,赢得受众,常常会选择受众有共同兴趣的内容,在选择的过程中就常出现流于低俗趣味等的信息。即便在算法的赋值之上,媒体平台也应该选择正确的价值观,引导舆论导向,提高内容准入门槛,完善把关人制度,严守内容的底线,将不符合法律道德的内容筛选出来。媒体想要树立权威、提高公信力,需要的是日常的积累,不断丰富的高质量的新闻。媒体自身建构的价值观在一篇虚假的报道中就会坍塌。只有持续稳定的积累,才能让受众形成正确的心理认同和媒介期待。

其他企业要加强行业自律,收集、利用信息需要事先征得用户同意。在一定情况下可以根据用户的行为习惯进行推送,但不能限制用户进行其他选项的选择,更不能代替他们选择。企业坚守底线,积极承担社会责任,才能在一定程度上保护个人的信息安全。

(四)个人提高保护信息意识

公民权利意识不强是因为公民对于权利范围的认识出现了障碍,观念出现了偏差。公民在使用软件、登录网站的时候,要注意及时清理浏览信息,谨慎保存账号和密码,不要被一些利益诱惑,随便泄露个人信息。当权利被侵犯的时候,要注意捍卫权利,及时寻找相关部门解决问题。

参考文献

[1]喻国明,曲慧.“信息茧房”的误读与算法推送的必要——兼论内容分发中社会伦理困境的解决之道[J].新疆师范大学学报(哲学社会科学版),2020,41(01):127-133.

[2]姜盼盼.大数据时代个人信息保护研究综述[J].图书情报工作,2019,63(15):140-148.

[3]李坤海,徐来.人工智能对侵权责任构成要件的挑战及应对[J].重庆社会科学,2019(02):55-65.

[4]郑志峰.人工智能时代的隐私保护[J].法律科学(西北政法大学学报),2019,37(02):51-60.

[5]许天颖.人工智能时代的隐私困境与救济路径[J].西南民族大学学报(人文社科版),2018,39(06):166-170.

[6]李修全.人工智能应用中的安全、隐私和伦理挑战及应对思考[J].科技导报,2017,35(15):11-12.

[7]邵国松,黄琪.人工智能中的隐私保护问题[J].现代传播(中国传媒大学学报),2017,39(12):1-5.

[8]施国强.人工智能时代对隐私问题的新思考[J].法制与社会,2019(23):213-214.

[9]左文涛,罗国强.“人工智能+”背景下的数据安全与隐私保护探析[J].电脑与电信,2019(03):39-41.

[10]牛晨晨,周畅,张昪.大数据背景下的个人隐私保护研究[J].西安航空学院学报,2017,35(01):73-76.

[1]邵国松,黄琪. 人工智能中的隐私保护问题[J]. 现代传播(中国传媒大学学报),2017,39(12):1-5.

[2]牛晨晨,周畅,张昪. 大数据背景下的个人隐私保护研究[J]. 西安航空学院学报,2017,35(01):73-76.

[3]喻国明,曲慧.“信息茧房”的误读与算法推送的必要——兼论内容分发中社会伦理困境的解决之道[J]. 新疆师范大学学报(哲学社会科学版),2020,41(01):127-133.

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈