摘要:自进入21世纪以来, 大数据技术的发展与广泛应用, 使得人工智能逐渐深入到我们生活的各个方面。人工智能在给人类社会带来历史性变革的同时, 也对人类一项极为重要的基本权利--隐私权, 带来了前所未有的挑战。以数据和算法为核心的人工智能需要大量数据的支持, 在缺乏相关法律的跟进和规范标准之下, 人工智能的发展埋藏着巨大的隐私权危机, 需要各方作出努力共同应对人工智能时代给人类社会带来的挑战。
关键词:人工智能; 隐私权; 个人信息; 侵权;
1 人工智能的兴起与挑战
“人工智能” (Artificial Intelligence) 这一术语自1956年在Dartmouth学会上首次提出以来, 发展至今已有60余年。目前人们还没有对“人工智能”的概念作出一个明确的定论, 但大多数学者认为, 人工智能属于计算机科学或智能科学的一个分支, 是利用先进的科学技术创造出的一种与人脑相类似的智能机器或智能系统[1].科学家们将人工智能依次分为弱人工智能、强人工智能与超强人工智能三个发展阶段, 而我国目前尚处于弱人工智能时代[2], 主要表现为无人驾驶汽车、智能客服、智能翻译等多种形态。
人工智能以数据和算法为基础与核心, 要想发展人工智能首先离不开海量数据的支持, 不论是在市场经济领域下企业为谋求自身的发展, 还是在公共事务管理中政府为作出科学合理的决策, 都越来越依赖于大量的数据采集、分析和使用, 由此也埋下了严重的隐私危机。人们传统的社会生活因为人工智能的广泛应用而日益变得透明化, 数据安全和个人隐私保护问题已逐渐变为国际焦点, 受到全球人民的密切关注和重视[3].
2 人工智能时代下的隐私权概述
2.1 隐私权的内涵与发展
“对于大多数人而言, 隐私是一项权利。它与人类尊严和人类价值的理念相联系, 人们感知到他们应当有权控制个人信息, 以及自己的照片和行为。这一权利的确切轮廓建立在社会判断之上, 并且是因时而异的。”[4]
隐私权这一概念最早起源于19世纪末的美国, 由两位律师合伙人布兰戴斯和沃伦在《哈佛法学评论》上发表的《论隐私权》一文中首次提出了隐私权的相关概念及理论[5].随着科技的进步和人权运动的发展, 隐私权在世界范围内得到了广泛地传播, 其含义也在不断丰富和完善。隐私权从最初指代以保护个人生活安宁为目的的个人独处的权利, 主要表现为空间上的隐私权, 在私权利与公权力的冲突与人权意识的高涨下拓展到自决隐私的范畴, 即个人对私人领域的事务有自主决定而不受他人干涉的权利。同时伴随着20世纪60年代以后互联网技术的飞速发展, 人们个人信息受侵犯的现象大幅增加, 隐私权的内涵逐渐扩大到对个人信息享有独自管理和控制且不为他人知悉、利用或支配的权利。当前我国学者普遍认为, 隐私权主要是指自然人享有对自己的个人私事、空间、信息等个人生活领域受到法律保护, 非经当事人允许不得随意侵犯的权利。
2.2 人工智能时代下隐私权相关概念的新变化
2.2.1 隐私范畴的扩大:可推断性信息
在人工智能的广泛应用下, 传统意义上对隐私范围的认定已不足以囊括所有应受法律保护并禁止他人随意侵犯的个人隐私, 在大数据技术的支持下, 人工智能可以将海量的零碎、独立、无明确指向性的信息进行整合分析, 从而形成一种推断性信息, 这种信息就具有了明确的指向性, 并且多数情况下会触及到个人隐私[1], 例如根据一个人的搜索浏览记录可以推断出个人的消费习惯、购买偏好、甚至经济水平, 而企业则可以借助该信息有针对性地做出推送和营销, 干扰个人的正常生活, 此时便需要法律对所保护的隐私范围予以扩大。
2.2.2 隐私权性质的变化:兼具财产属性
一般情况下人们将隐私权认作是一种人格权, 在隐私权受到侵犯时多与精神利益相关, 并参照精神损害赔偿标准对经济损失予以赔偿。而在人工智能时代下, 侵犯隐私权的方式变得更加多样, 造成的损害结果也与从前有所不同, 如很多企业会将其在从事经营、服务活动中收集到的大量的客户个人信息贩卖给其他企业或个人或者达成某种数据共享合作协议以谋取经济利益, 像2018年曝光出来的脸书 (Facebook) 泄密门事件。而这些企业一旦出售其掌握的用户个人信息就将直接或间接地获取财产收益, 在这种数据买卖交易中, 隐私信息就像商品一样成为买卖的标的物以实现交易主体追求财产利益的目的, 此时隐私权便具有了明显的财产属性。
2.3 我国对隐私权法律保护的现状
与欧美国家相比, 我国法律对隐私权的保护相对较晚, 目前《宪法》中还未直接将隐私权作为一项基本权利予以规定, 仅可通过第三十九条“公民的住宅不受侵犯”、第四十条“公民的通信自由和通信秘密受法律的保护”间接体现出对隐私权保护的认可。在民法层面, 《民法通则》中也未在具体人格权中将隐私权明确规定出来, 一直到2009年《侵权责任法》的颁布, 隐私权才被作为一项独立的人格权予以保护。同时在刑法层面, 我国也通过《刑法修正案 (七) 》和《刑法修正案 (九) 》单独将个人信息作为一项受保护的法益, 完善了《刑法》对个人信息的保障。其后随着网络的迅速发展和普及, 国家对保护个人信息的重视度进一步提高, 2016年全国人民大表大会常务委员会通过了专门的《网络安全法》。2017年, 全国人民代表大会新制定的《民法总则》完善了《民法通则》的不足, 将隐私权单独列明为一项独立的民事权利予以保护, 并且在第一百一十一条中指明“自然人的个人信息受法律保护。任何组织和个人需要获取他人个人信息的, 应当依法取得并确保信息安全, 不得非法收集、使用、加工、传输他人个人信息, 不得非法买卖、提供或者公开他人个人信息。”
3 人工智能时代下隐私权保护面临的困局
3.1 侵权方式发生新变化
3.1.1 侵权方式更加隐蔽
在人工智能时代下, 越来越多的智能设备为人们所接受并安置在私人空间里, 而这些设备上一般都会安装诸如红外感应器、GPS全球定位系统等信息传感设备并且与互联网相连接, 一旦打开这些设备, 其收集到的数据便可以上传, 再通过算法对数据整合、分析实现智能化的定位和监控, 同时可以将收集到的琐碎、看似无价值的信息通过分析和处理整合成为具有明确指向性的个人隐私信息, 这种侵犯隐私权的方式通常不易被人察觉。[2]再如人们在使用互联网的过程中可能被不经意点进的某个钓鱼网站或木马链接盗走个人信息, 或者本身属于正常填写的一些无指向性的信息, 在被某个不知名端口利用技术处理后就变成了具有特定指向性的隐私信息, 而被侵权人却无从得知。人工智能的发展使得信息获取的方式与以往大不相同, 与传统隐私权侵权方式相比变得更加隐蔽。
3.1.2 隐私数据易被不当利用和扩散
目前大量个人隐私数据除了由政府在行使公共管理服务职能中掌握的以外, 还被许多以互联网公司为主的企业所掌握, 而这些企业往往会基于营利的目的将手握的海量隐私数据滥用、售卖或共享, 而这些数据一旦被泄露和扩散出去以后便很难再追溯和确定有多少主体掌握着, 使得个人的隐私权遭受侵害并且难以得到有效救济。
3.2 对侵权行为的追责更加困难
3.2.1 成本高, 难度大
在“万物互联”的背景下, 各种端口无处不在, 隐私权主体往往很难确定自己是在哪个端口通过怎样的方式泄露了隐私, 甚至本身属于经当事人同意下有意识地提供、对方合法获取的看似一般性的信息, 在某个端口利用人工智能进行数据分析后就会被整合为具有特定性的个人隐私信息, 而隐私权主体对此往往难以举证证明, 且成本过高。
3.2.2 侵权主体难以认定
通常情况下, 人工智能对隐私权的侵犯可以分为三种情形, 一种是侵权人有意识地利用人工智能对个人的隐私权进行侵犯以实现自身的不正当目的, 此时人工智能只是侵权人在实施侵权行为中使用的工具或手段, 可直接追究侵权人的法律责任;一种是人工智能在设计、制造、销售中存在瑕疵而造成对隐私权的侵犯, 此种情况下可适用《侵权责任法》中产品责任的有关规定进行问责;一种是“人工智能”超越人类可控范围下的自主侵权行为, 此时便需要探讨和确定人工智能是否具有侵权主体资格, 能否独立承担侵权责任。
3.2.3 损害后果严重, 难以弥补
在人工智能时代下, 个人隐私一旦遭到泄露和扩散, 便很难实现完全救济, 个人隐私信息难以确定被多少端口、具体哪一个端口所掌握, 多少一般、无指向性的信息何时何地就会被利用技术力量整合成为具有特定性的个人隐私信息, 因此在人工智能时代下隐私权受到侵犯后一般无法恢复到最初圆满的状态, 具有不可逆转性。
再就是利用云计算中带来的隐私风险, 由于云计算可以提供基于共享池实现按需式资源使用的模式[6], 因此不论是个人、企业还是政府都可以把大量的数据存储到云端, 而一旦将隐私信息存储到云端, 这些隐私信息就会面临被窃取和泄露的风险, 容易遭受如黑客攻击等各种潜在的威胁。
4 人工智能时代下隐私权保护的应对策略
4.1 法律制度亟待完善, 监管力度有待加强
为了顺应人工智能发展的潮流, 国务院在2017年颁布了《新一代人工智能发展规划》以抢抓发展机遇, 规范和指引我国人工智能的发展。而目前我国虽然在个人信息的保护方面已经做出了一些立法举措, 但是在人工智能时代下, 我国仍旧缺乏一部专门规范个人信息保护的统一的法律文件, 以更加灵活地适应人工智能快速发展过程中对个人隐私信息带来的威胁和冲击, 更加严格有效地规范和引导人工智能的健康发展。
我国在制定相关法律过程中, 需要对个人隐私保护的范围做出更加明确的界定, 丰富和增强个人对信息的管理和控制力, 规范和限制企业或者政府对其收集到的个人隐私信息和数据的储存、利用方式, 明确人工智能在设计制造环节中不同主体的权利与义务, 并对在人工智能的应用过程中侵犯个人隐私权时承担责任的主体做出明确的规定。在完善法律规定的同时还应当加强对企业、政府等掌握个人数据的主体在获取、使用这些数据中的违法违规行为的监管力度, 可以构建专门针对人工智能的设计和开发及数据的收集和应用整个流程的监管机构, 形成一套公开透明的监管体系, 并积极引入相关专业人士加强事中、事后的有效监管, 将对个人隐私权的侵犯后果尽可能地降到最低。
国际上部分国家和地区为了应对人工智能等新兴技术迅速发展下对保护个人隐私的法律制度带来的困难和挑战, 已经开始做出相应的立法举措, 如欧盟在2016年出台并于2018年正式生效的《通用数据保护条例》, 其中为适应和矫正发展人工智能等新技术新应用下在对个人隐私数据的收集、分析、利用过程中形成的新型侵权方式, 明确赋予了个人对数据享有的诸如决定数据如何利用和处理等权利, 我国可以对此结合本国人工智能的发展阶段和国情, 对国际上有关隐私权保护方面的法律规范较为领先的地区和国家予以吸收和借鉴。
4.2 提高个人隐私安全意识
目前我国国民对个人信息的安全保护意识不够强, 在人工智能的飞速发展中, 仅凭企业的自觉性和法律的规范及其强制力尚不足以保障个人隐私不受侵犯, 首先需要个人提高对自身信息的安全保护意识, 在人工智能广泛应用的时代下随时保持隐私安全防范意识和敏觉, 可通过加强个人隐私保护意识的宣传, 普及在人工智能时代下如何有效保护隐私的相关知识, 譬如在浏览网页或者下载软件时怎样准确地分辨出哪些类型的链接和网站是存在安全隐患的等等, 增强个人保护隐私信息的能力。
4.3 重视技术层面对隐私保护的规制
法律不可避免的具有滞后性, 因此在人工智能飞速发展的时代下, 企图仅凭完善相关的法律来保护个人隐私是远远不够的, 在人工智能等新技术的设计开发和制造中就需要制定相应的规则加以防范。首先在设计过程中就需要有一套合理的风险评估标准, 在最开始的阶段就积极预防侵犯隐私权风险的发生。同时还需要提高开发研制人工智能的安全标准, 在技术层面增强该人工智能产品的安全性和稳定性, 特别是对于一些具有高度危险性的人工智能产品, 例如无人驾驶汽车, 其相关隐私数据一旦被泄露出去或者安全防范系统过于脆弱而极易被黑客入侵, 由此造成的损害不只是因隐私权被侵犯而产生的精神上的损害, 还可能会造成个人在人身和财产方面的损害。[7]因此在研发和应用人工智能的整个过程中都需要对其进行严格的技术测试与安全认证, 既可以增强公众对该人工智能产品的信任, 还有利于保障人工智能的可持续、健康发展。
4.4 加强国际合作
人工智能的飞速发展给隐私安全造成的威胁和冲击是全球各国都在面临的问题, 因此各国之间也应当加强交流与合作, 对发展人工智能中存在的共性问题, 如安全风险问题、伦理问题等作积极的探讨和研究, 可以形成一般性的安全风险标准和技术标准, 统一规范和指导人工智能的设计和研发, 防范经济全球化影响下危机在各国之间发酵的连锁反应的发生, 针对人工智能实行全球化治理, 促进人工智能良性发展并更好的服务于人类社会。
5 结束语
随着科技的不断进步, 以数据和算法为核心的人工智能得到飞速的发展, 它在给人们的生活带来便利的同时, 也对个人隐私权的保护带来了巨大的冲击和挑战。而在社会物质文明高度发展的今天, 社会精神文明也取得了长足的进步, 在现代个人主义和人权运动蓬勃发展的影响下, 人们对自由、个性独立的呼声越来越高, 对隐私的期待也在不断增强, 因此需要个人、社会、国家乃至世界各方协调一致, 共同应对人工智能时代给人类社会带来的挑战, 削弱人工智能的不利影响, 使其更好地为人类社会的发展提供服务。
参考文献
[1] 王军。从脸书“泄密门”看人工智能时代隐私保护的困局与出路[J].北方传媒研究, 2018 (4) .
[2] 许天颖。人工智能时代的隐私困境与救济路径[J].西南民族大学学报 (人文社会科学版) , 2018 (6) .
[3] 杨芳, 韩钰, 肖迪。简议人工智能背景下的隐私与数据安全保护[J].佳木斯职业学院学报, 2018 (7) .
[4] 劳伦斯·M·弗里德曼。人权文化:一种历史和语境的研究[M].中国政法大学出版社, 2018, 8:153.
[5] 杨春福。人权法学[M].北京:科学出版社, 2010:89.
[6] 李修全。人工智能应用中的安全、隐私和伦理挑战及应对思考[J].科技导报, 2017 (35) .
[7] 郑志峰。人工智能时代的隐私保护[J].法律科学 (西北政法大学学报) , 2019 (2) .