随着AGI时代的步步逼近,隐私设计(Privacy by Design, PBD)应成为面向人工智能的数据治理当中的一项核心议题,如《为什么要 DG4AI ?与人工智能安全治理有何不同》一篇提到的重点之一数据安全与隐私治理,在平衡数据利用与隐私保护过程中采用隐私增强技术,设计隐私友好的产品和服务。隐私设计不仅关乎个人隐私的保护,更涉及到平台企业的合规性和社会的数字治理结构。
PbD作为一种创新的隐私保护理念,具有广阔的应用前景。然而,在隐私设计的实施过程中,逐渐显现的数字权力风险也不容忽视,需要我们深入探讨并提出相应的优化路径。在未来的研究和实践应继续探索和完善这一多元规制框架,以实现隐私保护与技术创新的和谐共生。
隐私设计的基本原理与实践
隐私设计是一种将隐私保护融入产品和服务设计过程的理念。它强调在数据全生命周期的各个阶段都应用特定的隐私增强技术(PET),以实现对用户隐私的全方位保护。在实践中,隐私设计已成为平台企业合规的重要手段。通过技术赋能,平台企业能够实现自动化的数据合规,从而在一定程度上扩张了其数字权力。
隐私设计(PbD)的基本原理包括两个方面:作为硬件的隐私增强技术和作为软件的数据全生命周期理念。隐私增强技术(PET)是PbD的技术基础,主要涉及具体的隐私保护技术,如最小化、隐藏、分离、聚合、通知、控制、执行和展示等。这些技术用于在数据处理的各个阶段保护用户隐私。
PbD则是一整套系统的隐私保护理念和方法,通过整合不同的PET来构建覆盖数据全生命周期的隐私保护体系。简而言之,PET是具体的隐私保护技术,而PbD是将这些技术整合应用于整个数据处理流程的系统化理念。
如《一文明了隐私增强技术 PET 及实际应用关键因素》一篇为我们介绍,隐私增强技术(PET)是一种很有前途的解决方案,支持个人数据的分析、共享和使用,同时遵守数据保护原则,而不会对隐私产生负面影响,可以帮助预防下游的伤害。
在《联合国发布隐私增强技术指南 涵盖18个全球典型案例》这篇中最大的亮点,是18个遍及全球的隐私增强技术典型使用案例,案例涉及政府部门、民营企业和多个合作组织,也涵盖了各种隐私增强技术和各类具体的使用场景。
隐私增强技术(PET)主要包括8种类型:最小化、隐藏、分离、聚合、通知、控制、执行和展示。这些技术在数据全生命周期的不同阶段有不同的应用:
- 数据采集阶段:采用最小化的系统设计方法,通过对系统的默认设计,将数据收集限定在最小限度内。
- 数据传输阶段:主要关注数据泄露风险,采用数据加密技术对传输的明文数据进行加密。
- 数据存储阶段:在数据库结构中设置数据存储周期,确保数据记录在存储前将个人身份识别信息移除,并采用分离与聚合技术处理储存的数据。
- 数据处理阶段:适度使用泛化编码、随机替代等去标识化技术,并加强信息溯源,通知用户有关数据收集范围、方式、目的等信息。
- 数据交换阶段:加强共享者与访问、披露对象的身份双认证,设定差别式权限,保证程序正当,实现个人信息端对端的安全传输。
- 数据销毁阶段:对数据进行不可逆地删除或将介质(设备)本身永久销毁,使数据不可恢复。
如在数据采集阶段,PbD通过通过对系统的默认设计,将数据收集限定在最小限度内,避免过度收集用户数据。利用可定制的隐私设置,匹配用户选择的数据收集程序,从而避免数据的过度收集。同时,在收集用户数据之前,明确告知用户数据收集的范围、方式和目的,并获得用户的明确同意。
PbD的数字权力风险
隐私设计虽然旨在保护用户隐私,但在实践中也可能导致平台企业数字权力的扩张。这种权力扩张源于隐私设计所蕴含的技术赋能和自动化合规特性。数字权力风险主要表现为平台企业可能滥用其数字权力,侵犯用户隐私。此外,隐私设计的不当应用也可能导致数据治理结构的失衡,进而影响社会的公平与正义。
PbD的核心理念是将隐私保护的法律要求嵌入到AI系统的设计中。然而,法律文本与代码之间的转换存在天然的鸿沟。法律语言的模糊性和开放性与代码的机械性和封闭性之间存在矛盾,可能导致法律意图在技术实现中被曲解或忽视。由于代码的运行具有机械性和封闭性,难以表达法律文本中的模糊概念和价值判断,可能导致法治风险,即“技治”取代“法治”。
代码往往由企业委托技术公司编写,编写人员可能不完全理解法律规范的具体要求,从而在无意中扭曲法律规范。此外,企业可能通过委托代码编写人员设计有违法律的代码,利用技术垄断地位规避法律规制,导致法治异化为“人治”。
PbD依赖于复杂的技术手段,这些技术的有效性和安全性取决于设计和实施的质量。如果技术存在漏洞或被恶意利用,可能会导致严重的隐私泄露。PbD的实施涉及多个利益相关方,包括平台企业、技术开发者和用户。各方的利益诉求可能存在冲突,特别是在商业利益和隐私保护之间。如果利益冲突得不到有效协调,可能会导致PbD的实施偏离其初衷。
多元规制框架的构建
通过构建法律、市场和社会规范的多层次规制框架,可以有效应对这些客观技术性和主观人为性的数字权力风险,确保PbD的健康发展和广泛应用。以法律规制PbD来说,确保AI系统符合隐私保护要求的具体方法,一是在尊重平台企业通过PbD进行自我规制的前提下,对这种基于PbD的自我规制保持一种包容审慎的规制态度。
二是建立受控的环境来开发、测试和验证进入市场前的AI系统。若在监管沙盒内发现该AI系统会损害人类的健康安全等基本权利,相关监管部门应中止监管沙盒并行使督促纠正等监管职权。
三是在不确定性较大的环境中,先建立临时性规制框架,然后在执行过程中对这种临时性规制框架进行修正,且规制者与被规制者以及其他利益相关方之间的交流贯穿始终。
1. 法律规制
在法律规制层面,在法律系统中保持自身的规范性特征,并根据隐私保护的复杂性调整规制策略。采用包容审慎监管和敏捷治理的理念,通过监管沙盒制度对PbD进行规制。为了应对PbD的法律风险,需要建立和完善相关的法律法规,制定详细的隐私保护法律规范,明确PbD的具体要求和标准。建立独立的监管机构,对PbD的实施进行监督和评估,确保其符合法律要求。对违反PbD要求的行为设定明确的法律责任,增加违法成本。
2. 市场规制
在市场规制层面,通过产品认证机制对PbD进行规制。认证机构应具备独立性和专业性,并通过与其他制度的衔接(如涉案企业合规从宽制度和合规审计制度),保障认证结果的效力。市场机制可以通过竞争和激励来促进PbD的有效实施,通过第三方认证机构对PbD的实施进行评估和认证,提升市场信任度。鼓励企业分享成功的PbD经验和最佳实践,促进行业自律。通过税收优惠、补贴等方式,激励企业积极实施PbD。
3. 社会规范规制
在社会规范规制层面,强调用户在社会规范中的作用,建议在代码编写和执行过程中引入用户参与和反馈机制,并通过开放源代码策略促进平台企业与用户之间的信任。社会规范可以通过舆论和道德压力来约束PbD的实施,通过媒体、教育机构等渠道,普及隐私保护知识,提高公众的隐私保护意识。建立用户反馈渠道,及时收集和处理用户对PbD实施的反馈和建议。鼓励企业树立良好的社会形象,主动承担隐私保护的社会责任。
结 论
隐私设计在数字治理中具有重要作用,但也伴随着数字权力风险。为了有效应对这些风险,我们需要从完善法律法规、提升技术能力和凝聚多元共治合力等方面入手,共同构建一个更加安全、公正的数字治理体系。
首先需要完善相关的法律法规与制度体系。通过制定更加严格的隐私保护法律,明确平台企业的责任和义务,防止其滥用数字权力。其次,提升隐私保护技术能力也是关键。通过研发和应用更加先进的隐私增强技术,可以有效降低数字权力风险,保障用户隐私的安全。最后,凝聚多元共治合力是实现隐私保护的重要途径。政府、企业、社会组织和个人应共同参与隐私保护工作,形成多方协同、共同治理的格局。
来源:《隐私设计的数字权力风险与多元优化路径》,刊登于《长江论坛》2024年第5期,作者:武汉大学法学院硕士研究生 段俊熙;武汉大学法学院教授,博士生导师 徐亚文。本篇针对全文由生成式 AI 做出的核心摘要和解答,仅作为参考,请以原文为准。
在此声明以上观点和内容,仅代表原作者和出处,与数治网DTZed 无关,如有出错或侵害到相关合法权益,请通过电邮与我们联系:cs@dtzed.com。
有数治Pro在手,年费¥999 起落政策、学法规、用标准、推业务、促客户、助招投不再愁,在下方扫码添加老邪企业微信即可。
欢迎先注册,登录后即可下载检索隐私保护等相关标准、白皮书及报告。更多高质量纯净资料下载,进入公众号菜单“治库”。