本文来自数字经济观察网,作者/韬哥。
今年“两会”政府工作报告中指出,要“深入推进数字经济创新发展”。其中,谈到主要工作时又特别强调要“深化大数据、人工智能等研发应用,开展‘人工智能+’行动”。
人工智能在与其他数字化技术“+”,与千行百业的业务场景“+”的时候,更应该与安全“+”。
近日,广西警方通报了利用“伪消息”博眼球的几起案件。东兴市骆某某将其他地区的抗洪、救灾视频,利用AI软件自动编辑功能,嫁接新疆乌什县发生地震的虚假视频信息。该视频被大量播放,引发许多不明真相网民的评论与转发,严重干扰了社会秩序。对此,东兴市公安机关已依法对骆某某进行了处罚。
深圳市地方金融监管局官网也就利用AI新型技术实施诈骗发出了风险警示。不法分子利用AI技术,通过“拟声和换脸”,诈骗钱财。
AI技术是一把“双刃剑”,既为我们提供了防御安全攻击的新手段、新方法,也在客观上让黑客和别有用心者有机可乘。最近两年,随着深度合成技术的开放开源,深度合成产品和服务的应用逐渐增多,利用AI制作虚假音视频进行诈骗、诽谤的违法行为层出不穷,形式主要包括声音合成、AI换脸、转发微信语音、AI程序筛选受害人等。
在OpenAI发布使用Sora大模型生成的1分钟短视频后,生成式AI的想象空间变得更大。在多模态大模型爆发前夜,市场分析机构IDC在谈到值得关注的事项时指出,多模态大模型将带来更严峻的安全方面的挑战。一方面,多模态大模型将读取更多的图像、视频类数据,这些图像视频数据是否合规是否安全,需要得到保障;另一方面,生成的视频与真实世界之间的差异,是否会影响到人身安全、社会稳定、企业安全等,也需要注意。
全国政协委员、360集团创始人周鸿祎在其提案中重点关注了通用大模型的安全问题。他建议制定通用大模型安全标准体系,鼓励兼具“安全和AI”能力的企业聚焦攻坚,承担重担。
周鸿祎将通用人工智能技术引发的复杂安全风险分为技术安全、内容安全和人类安全三个方面。其中,技术安全主要涉及大模型技术本身引发的安全问题,如网络、数据和生成内容的安全;内容安全则是对大模型的控制、滥用、误用和恶意应用等问题;而人类安全问题则是大模型强大后带来的安全可控问题。
他在提案中特意加以说明,称通用大模型的发展已不是单纯的科技之争,更是国运之争,影响深远,中国应尽早未雨绸缪,重视大模型安全。
事实告诉我们,针对AI诈骗以及由于AI技术的应用而变得更加狡猾的安全攻击,我们更应该从思想上提高警惕,同时也要寻求更加有效的应对方法,并在制度、法律法规等方面建立起更加完善、有效的保障体系。
2024年2月29日,全国网络安全标准化技术委员会发布《生成式人工智能服务安全基本要求》,规定了生成式人工智能服务在安全方面的基本要求,包括语料安全、模型安全、安全措施等,并给出了安全评估要求。相信相关文件、规范的出台,将让我们在面对生成式人工智能可能带来的安全威胁时,能够做到有的放矢、从容不迫、对症下药。