本文来自千家网。
一项新调查揭示了企业面临的五大新兴风险,对人工智能(AI)增强型恶意攻击的担忧在2024年第一季度的新兴风险排名中位居榜首。
人工智能辅助工具引发恶意行为的前景令全球风险领导者感到担忧。语音和图像生成等人工智能辅助工具相对易于使用且质量高,增强了实施恶意攻击的能力,并带来广泛后果。
今年第一季度,Gartner对345名高级企业风险主管进行了调查,以捕捉和评估他们面临的20大新兴风险,并让领导者了解这些风险的原因和潜在后果。
在2024年第一季度的调查中,与人工智能相关的风险占据了前两位,其中人工智能增强型恶意攻击被列为最大的新兴风险,人工智能辅助的虚假信息也引起了人们的担忧。
人工智能攻击和错误信息的原因
人工智能攻击和虚假信息的主要驱动因素之一是其能力的快速扩展。人工智能增强可以提供恶意代码,并促进网络钓鱼和社会工程,从而实现更精准的入侵、更高的可信度和更具破坏性的攻击。
低成本和快速增长也让用户接触到了这项技术,而他们却不太清楚如何识别人工智能工具提供的信息是有效信息,还是虚假或歪曲的信息。
需要缓解的潜在后果
人工智能增强型攻击和错误信息的潜在影响是深远的,会对声誉、生产力和组织的响应能力产生重大影响。违规行为和披露要求的增加可能会削弱客户、消费者和合作伙伴对组织和品牌的信任。
人工智能增强型攻击和错误信息的速度和质量,也阻碍了信息安全团队应对和适应新安全形势的能力,进一步放大了其漏洞。
以下是AI攻击成为企业面临的新主要风险的一些关键原因:
自动化攻击手段:
AI技术可以用于自动化网络攻击,例如自动化的钓鱼攻击(phishing)和分布式拒绝服务攻击(DDoS)。这些攻击可以以更高效、更大规模进行,难以被传统防御手段快速检测和阻止。
智能化恶意软件:
AI驱动的恶意软件能够学习并适应防御系统,变得更加隐蔽和难以检测。例如,AI可以帮助恶意软件不断修改自身代码以避免被防病毒软件发现。
社会工程攻击:
AI技术可以通过分析社交媒体和其他公开数据,生成更为逼真的社会工程攻击。例如,使用AI生成的语音或视频,可以模仿企业高层,实施诈骗行为(如CEO欺诈)。
数据泄露和隐私风险:
AI技术能够更快地处理和分析大量数据,这使得一旦数据被不法分子获取,他们可以更快速地识别并利用敏感信息,导致更严重的数据泄露和隐私侵害。
对抗性攻击:
AI模型本身也成为攻击目标。攻击者可以通过对抗性样本(adversarialexamples)来欺骗AI系统,使其做出错误判断。这在自动驾驶、金融交易等高风险应用中尤其危险。
深度伪造技术:
深度伪造(Deepfake)技术可以生成高度逼真的假视频和音频,这不仅威胁到个人隐私和声誉,也可能被用来传播虚假信息,影响公共舆论和企业声誉。
供应链攻击:
AI可以用于识别并攻击企业供应链中的薄弱环节,导致整个供应链的安全风险增加。例如,攻击者可以通过AI分析找到最易受攻击的供应商进行入侵,然后通过供应商网络进入目标企业系统。
企业应当采取多种措施来应对AI带来的安全威胁,包括:
加强网络安全防护:采用先进的安全技术和策略,如零信任架构、多因素认证和持续监控。
员工培训和意识提升:提高员工对AI相关安全威胁的认知,培养其防范社会工程攻击的能力。
引入AI安全技术:利用AI技术增强安全防护,例如威胁检测和响应系统、异常行为分析等。
制定应急响应计划:确保企业具备快速应对和恢复的能力,以减少潜在攻击的影响。
通过这些措施,企业可以更好地应对AI技术带来的新型安全挑战,保护自身免受攻击。