近期卡巴斯基发布了一份题为“算法时代的爱情”的调查报告,报告中提到了婚恋App中算法的使用,以及算法在推荐与匹配潜在恋爱对象(用户)方面的情况。
这份巴斯基委托进行的调查报告显示了一些比较有意思的结果:
64%受访者表示婚恋App的推荐匹配效果很好,44%的人会相信人工智能或算法来为他们找到匹配的对象;
当然,也有39%的受访者发现按算法排序是不科学的,56%的人不相信算法能够真正理解恋爱中的复杂性。
人工智能兴起
算法岂能成为“脱缰野马”
不只在婚恋方面,这类推荐算法连同价格算法、评价算法等在其他领域也大行其道,几乎无处不在。
新闻资讯、社交、购物、餐饮、出行以及短视频等App通过各类算法给用户推荐他们感兴趣的话题和内容,深深地将用户绑定在他们所精心构筑的“牢笼”。
这些技术的兴起得益于近年来以人工智能、大数据等为代表的新技术新应用的快速发展。
这些新应用在服务人们社会生活的过程中,通过各种算法将大数据进行收集和处理,并为用户进行画像,精准的描绘出用户的各种喜好,最终控制用户行为或精准推送各类广告。
可以说算法是许多App的技术基础,甚至是数字社会发展的重要基石。虽然这些算法特别是AI算法为社会生活创造了巨大价值,但其对用户隐私的侵犯、大数据杀熟等弊端也逐渐暴露出来。
并且,与其他传统方式不同,算法的应用也让许多恶意行为变得更为隐蔽。
对此,赛迪智库指出,算法滥用会带来严重的社会危害:滥用数据分析和算法推荐,侵害消费者合法权;利用算法实现利益侵占,压榨平台商家和从业者;基于缺陷数据集训练算法,导致算法偏见和不公平决策。
与此同时,算法滥用问题也成为世界性危害,许多国家对此进行了法律和制度的约束。
欧盟的《通用数据保护条例》中规定“收集个人数据进行自动化决策时,应当向数据主体提供关于此类问题处理的逻辑及预期后果的有效信息”。
2019年4月美国发布的《算法问责法案(草案)》中涉及相关算法影响评估的规定,要求衡量算法在设计和训练数据中,对准确性、公平性、偏见、歧视及对隐私和安全的影响。
随着《网络安全法》《数据安全法》《个人信息保护法》等法律的陆续出台,我国在数字治理方面的法律法规也在逐渐完善。
过度信息收集和过度索权是“算法作恶”的常见形式。
《个人信息保护法》明确规定了“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇;
通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式”等,从法律层面向信息过度收集和过度索权行为说NO。
为了规范互联网信息服务算法推荐活动,国家互联网信息办公室就《互联网信息服务算法推荐管理规定(征求意见稿)》(以下简称“管理规定”)公开征求意见。
管理规定提出,算法推荐服务提供者应当“保护消费者合法权益,不得根据消费者的偏好、交易习惯等特征,利用算法在交易价格等交易条件上实行不合理的差别待遇等违法行为。”
人工智能技术的发展也为算法问题增加了新的不确定性。
2021年7月,中国信息通信研究院与京东探索研究院联合发布的《可信人工智能白皮书》中指出,当前人工智能技术风险引发信任危机,其中包括算法安全导致的应用风险、黑箱模型导致算法不透明、数据歧视导致智能决策偏见、系统决策复杂导致责任事故主题难以界定、数据滥用导致隐私泄露风险,因此发展可信人工智能正在成为全球共识。
保护隐私、规范算法
技术和管理并重
隐私问题是算法滥用带来的严重问题之一,尽管在网络安全领域,数据安全和隐私保护始终是重中之重,但时至今日出现的数据安全问题仍屡见不鲜。
在解决隐私泄露方面,业界出现了许多更为针对性的技术措施,其中包括差分隐私和基于联邦学习的隐私保护。
差分隐私早在2006年就已提出,是人工智能系统隐私保护能力的一个量化指标,旨在提供一种当从统计数据库查询时,最大化数据查询的准确性,同时最大限度减少识别其记录的机会。
它通过对数据信息顺序置换、添加噪声等方式来防御攻击。
联邦学习技术于2015年提出,可在满足用户隐私保护、数据安全和法规的要求下,进行数据使用和机器学习建模。
联邦学习通过将模型部署到用户设备,各设备使用自己的私有数据计算模型参数的梯度,进而利用通过中央服务器进行融合后的数据来更新模型参数。
针对算法治理方面,赛迪智库建议:
应当探索建立算法应用监管制度体系,一是建立算法应用影响评估制度,二是建立算法透明度制度,三是建立算法问责机制;
加强算法应用的安全测试与监测,一是组织开展算法应用安全测试,二是利用大数据、人工智能等技术手段,加强对网络平台算法数据采集、运行、社会影响等方面的动态监测,强化监管;
依托行业组织强化企业算法伦理建设,一是加快研究制定算法伦理规则,二是支持设立算法社区、行业联盟等组织,指导企业建立内部治理框架、控制机制和责任体系,防止算法滥用。
技术是把双刃剑,算法的“原罪”背后,永远是人。