人工智能和机器学习正以前所未有的速度发展。这就提出了一个问题:如何以负责任和合乎道德的方式使用AI/ML系统,值得用户和社会的信任?
随着政府当局在这个复杂领域加强执法、规则制定和立法,组织了解当前适用于AI的隐私要求、即将出现的隐私要求以及可用于为AI和ML(机器学习)应用程序构建合规数据保护计划的资源至关重要。
人工智能治理发展
在过去几年中,涌现了许多关于可信赖AI的良好治理指南。这些AI治理框架中的大多数在基本原则的定义上存在相同之处,包括隐私和数据治理、问责制和可审计性、稳健性和安全性、透明度和可解释性、公平和非歧视、监督和促进人类价值。
公共组织制定负责任的人工智能框架的一些突出例子包括联合国教科文组织关于人工智能伦理的建议、中国使用人工智能的伦理准则、欧洲委员会的报告“走向人工智能系统的监管”、经合组织人工智能原则和伦理欧盟委员会成立的人工智能高级别专家组制定的可信赖人工智能指南。
除此之外,人们还可以找到无数公司的自我监管举措。此外,工业界与学术界和非营利组织联手推进人工智能的负责任使用;例如,在人工智能伙伴关系或人工智能全球伙伴关系中。ISO/IEC、IEEE和NIST等标准化机构也提供指导。
目前的治理举措主要采取声明的形式,不具约束力。但同时,现有的各种隐私法已经在很大程度上规范了人工智能系统的负责使用。
隐私监管机构在人工智能治理中的突出作用也体现在新加坡个人数据保护委员会发布的人工智能治理框架模型、英国信息专员办公室在开发人工智能审计框架方面的广泛工作,以及发布了关于人工智能治理框架的指南。香港个人资料私隐专员公署对人工智能的道德发展和使用。
隐私法规和负责任的人工智能
负责任的人工智能原则之一明确提到了“隐私”。这让人想起将一般隐私原则(全球隐私和数据保护的支柱)应用于处理个人数据的AI/ML系统的义务。这包括确保收集限制、数据质量、目的规范、使用限制、问责制和个人参与。
可信赖的人工智能原则,如透明度和可解释性、公平和非歧视、人工监督、数据处理的稳健性和安全性,通常与特定的个人权利和相应隐私法的规定相关。
关于欧盟GDPR,解释权就是这种情况(Arts 1(1),12,13,14,15(1)(h),22(3),Recital 71),公平原则(第5(1)(a)条,第75条)、人为监督(第22条)、稳健性(第5(1)d条)和处理安全性(第5(1)(f)、25、32条)。中国的PIPL或英国GDPR等其他隐私法包括与这些负责任的人工智能原则相关的类似规定。
在美国,联邦贸易委员会根据FTC法案第5条、美国公平信用报告法案以及平等信用机会法案要求AI开发人员和使用算法的公司承担责任。在其2016年报告和2020年和2021年的指导方针中,FTC毫无疑问地表明,人工智能的使用必须是透明的,包括向消费者解释算法决策,并确保决策是公平和经验合理的。
不了解源自隐私法规的人工智能系统的合规性要求不仅会给受影响的个人带来风险。公司可能面临巨额罚款,甚至被迫删除数据、模型和算法。
违法案例
去年年底,澳大利亚信息专员办公室发现Clearview AI在未经同意的情况下收集图像和生物特征数据违反了澳大利亚隐私法。不久之后,根据与澳大利亚OAIC的联合调查,英国ICO宣布出于同样的原因,它打算处以超过1700万英镑的潜在罚款。此外,三个加拿大隐私当局以及法国的CNIL下令Clearview AI停止处理并删除收集到的数据。
欧洲数据保护机构在2021年追查了其他几起AI/ML系统侵犯隐私的案件。
2021年12月,荷兰数据保护局宣布对荷兰税务和海关总署处以275万欧元的罚款,理由是其违反了GDPR,原因是ML算法以歧视性方式处理申请人的国籍。该算法系统地将双重国籍识别为高风险,导致这些人的索赔更有可能被标记为欺诈。
在2021年8月的另一个具有里程碑意义的案例中,意大利的DPA加兰特对食品配送公司Foodinho和Deliveroo分别处以约300万美元的罚款,理由是它们违反了GDPR,因为其用于管理乘客的算法缺乏透明度、公平性和准确信息。监管机构还发现,这些公司的数据最小化、安全性和隐私设计和默认保护缺乏,数据保护影响评估也缺失。
在2021年初的类似案件中,阿姆斯特丹地方法院裁定拼车公司Uber和Ola Cabs不符合GDPR的透明度要求,并侵犯了要求人工干预的权利。荷兰DPA的调查正在进行中。
在美国,FTC最近的命令明确表明,在开发模型或算法时不遵守隐私要求的风险很高。
在Everalbum的问题上,FTC不仅关注向用户披露收集的生物特征信息并获得同意的义务,还要求非法获取的数据,以及使用这些数据开发的模型和算法,被删除或销毁。
有了这个,FTC从2019年开始在其Cambridge Analytica订单中遵循其方法,其中还要求删除或销毁不仅有问题的数据,而且还要求删除或销毁所有工作产品,包括全部或部分源自的任何算法或方程式数据。
挑战—不可解释黑盒
尽管有责任不执行法规要求的负责任的人工智能原则,但仍有许多悬而未决的问题。尽管有很多关于同意和适当通知用户的法律指导,但对AI公平性和可解释性等要求的法律解释和实际实施仍处于起步阶段。共同点是,没有一种万能的方法来评估各种用例中值得信赖的AI原则。
AI可解释性或透明度旨在打开所谓的ML模型“黑盒”。围绕可解释人工智能的整个人工智能研究领域已经出现。解释ML模型的含义有很多答案。为了向监管机构或用户解释个人预测,基于结果的事后本地模型很常见。在这里,可以在由黑盒模型的样本和输出组成的数据集上训练代理模型(或元模型)以近似其预测。任何解释都应适应接收器的理解,并包括对系统设计选择的参考,以及部署它的基本原理。
人工智能公平是另一个不断发展的领域,涵盖了一个非常复杂的问题。偏见、歧视和公平是高度针对具体情况的。在数学、计算机科学、法律、哲学和经济学的各个学科之间和内部,存在许多公平的定义,并且差异很大。一些隐私监管机构已经发布了明确的指导方针。根据ICO,公平意味着个人数据需要以人们合理预期的方式处理,而不是以对他们产生不合理不利影响的方式使用。同样,FTC解释说,根据FTC法案,如果一种做法弊大于利,就会被认为是不公平的。另一方面,在GDPR的背景下对公平原则的定义仍然很少。.同时,许多组织不确定如何在实践中避免偏见。一般来说,偏差可以通过预处理(在训练算法之前)、处理中(在模型训练期间)和后处理(预测中的偏差校正)来解决。
AI可解释性和公平性只是负责任的AI领域中众多快速发展的原则中的两个。正如欧盟ENISA在最近的一份报告中所强调的那样,其他领域,例如保护AI/ML算法也需要提高意识和保障措施。另一个挑战是不同原则之间的权衡。一些可信度属性之间可能会出现紧张关系,例如透明度和隐私,或隐私和公平。
实际举措
对于隐私专业人士来说,从数据治理和风险管理的角度来处理该主题以确保问责制可能是一个良好的开端。与计算机工程、数据科学、安全、产品开发、用户体验设计、合规性、营销和新兴的人工智能伦理学家等其他团队共同设计适当的人工智能治理流程是确保人工智能/机器学习系统能够处理个人数据会在整个ML流程中考虑隐私要求。
内部政策应确保人工参与处理数据质量、数据注释、训练数据准确性测试、算法(重新)验证、基准评估和外部审计。也可以考虑使用外部透明度标准,例如最近由IEEE或英国发布的标准。
数据保护影响评估或隐私影响评估可以通过与负责任的人工智能相关的其他问题来增强。通过这种方式,可以识别和控制使用人工智能可能给个人带来的权利和自由风险。在这里,应该评估算法和数据集中的偏见或不准确可能对个人造成的任何损害,并记录使用AI/ML算法的比例。PIA可以描述权衡取舍,例如统计准确性和数据最小化之间的权衡,并记录任何决策的方法和基本原理。
此外,组织可以考虑保护隐私的机器学习解决方案或使用合成数据。虽然它们不会取代负责任的人工智能和隐私政策、全面的模型风险管理以及模型可解释性或偏差检测的方法和工具的使用,但它们在设计人工智能架构时加强了隐私优先的方法。
挪威DPA在一份致力于在ML算法中使用个人数据的报告中强调了这些方法:“与使用AI的组织特别相关的两个新要求是设计隐私要求和DPIA。”
在这种情况下,负责任的人工智能原则的关键问题也可以考虑在内。起点可以是欧盟AI-HLEG提出的清单,也可以是人工智能伙伴关系编制的清单。跨学科讨论和部署用于负责任的AI、AI公平和AI可解释性(如LIME、SHAP或LORE)的工具包可以进一步促进相互理解和对用户的透明度。
进一步的非技术方法可以包括成立一个道德人工智能委员会、内部培训、团队组成的多样化,或分析数据收集机制以避免偏见。其他组织已经开始发布AI可解释性声明。无论采用何种方法,组织都必须向消费者提供必要的信息,以防AI/ML系统产生不利行为以及评分的使用和后果。
未来展望
确保值得信赖的AI和ML的原则将在未来几年的大量法律中得到体现。在全球范围内,经合组织统计了60个国家的700项人工智能政策举措。
随着新的欧盟人工智能法案,高风险人工智能系统将受到明确监管。在美国,拜登政府宣布制定“人工智能权利法案”。除了即将为FTC提供的额外5亿美元资金外,FTC还申请了关于隐私和人工智能的规则制定权。此外,新的加州隐私保护局可能会负责在2023年之前发布管理人工智能的法规,预计这将产生深远的影响。
随着执法力度的加大和新法规的出台,确保人工智能系统的隐私合规将成为负责任地使用人工智能的最低要求。随着未来的发展,人工智能应用程序现在必须满足隐私要求,这一点很重要。共同努力和对AI/ML生态系统的良好理解将极大地帮助为这些新的发展做准备。