AI前沿防御:揭秘OpenAI如何挫败全球网络犯罪活动

闫志坤编译
今年,OpenAI在全球范围内成功阻止了超过20起利用人工智能进行网络犯罪的恶意活动。这些活动包括开发恶意软件、撰写网站文章、生成社交媒体账户传记,以及为虚假账户创建AI生成的个人资料图片。尽管黑客不断尝试利用OpenAI的模型,但目前尚未看到这些行为在制造新型恶意软件或吸引大量受众方面取得显著进展。

本文来自微信公众号“数世咨询”,【编译】闫志坤。

微信图片_20241014163150.png

今年,OpenAI在全球范围内成功阻止了超过20起利用人工智能进行网络犯罪的恶意活动。这些活动包括开发恶意软件、撰写网站文章、生成社交媒体账户传记,以及为虚假账户创建AI生成的个人资料图片。尽管黑客不断尝试利用OpenAI的模型,但目前尚未看到这些行为在制造新型恶意软件或吸引大量受众方面取得显著进展。

01 干扰政治选举的新手段

OpenAI表示,黑客想利用人工智能技术扰乱了与美国、卢旺达以及程度较小的印度和欧盟选举有关的社交媒体内容,所幸的是这些网络内容均未吸引到病毒式传播或持续的受众。例如以色列商业公司STOIC(也称为Zero Zeno)的公关行为,该公司在社交媒体上对印度大选发表评论,正如Meta和OpenAI在今年5月初披露的那样。

02 网络攻击行为案例分析

1.典型网络攻击行为

OpenAI发现的一些典型网络攻击行为如下:

  • SweetSpecter利用其AI模型进行LLM侦察、漏洞研究、脚本撰写、异常检测规避和开发。据观察,它还针对OpenAI员工进行了鱼叉式网络钓鱼尝试(未成功),以传播SugarGh0st RAT。
  • Cyber Av3ngers是隶属于伊朗伊斯兰革命卫队(IRGC)的一个组织,它利用其人工智能模型对可编程逻辑控制器进行研究。
  • Storm-0817是一个伊朗黑客,它使用其AI模型来调试能够收集敏感信息的Android恶意软件、通过Selenium抓取Instagram个人资料的工具以及将LinkedIn个人资料翻译成波斯语。

2.账号封锁与影响力行动

同时,OpenAI表示已采取措施封锁多个账号群,其中包括两个与代号为A2Z和Stop News的影响力行动有关的账号,这些账号生成英语和法语内容,随后发布在多个网站和各个平台的社交媒体账号上。

“[Stop News]对图像的使用异常丰富,”研究人员Ben Nimmo和Michael Flossman表示。“其许多网络文章和推文都附有使用DALL·E生成的图像。这些图像通常为卡通风格,并使用明亮的色调或戏剧性的色调来吸引注意力。”

OpenAI Bet Bot和Corrupt Comment还发现的另外两个网络分别使用OpenAI的API与用户进行对话并向他们发送赌博网站的链接,以及制造随后发布在平台上的评论。

近两个月前,OpenAI禁止了一组与伊朗秘密影响行动Storm-2035有关的账户,这些账户利用ChatGPT生成内容,其中包括关注即将到来的美国总统大选的内容。

尼莫和弗洛斯曼写道:“黑客最常使用我们的模型来执行特定中间阶段的任务——在他们获得互联网访问、电子邮件地址和社交媒体账户等基本工具之后,但在他们通过一系列分发渠道在互联网上部署社交媒体帖子或恶意软件等‘成品’之前。”

03 人工智能的滥用风险

尽管生成式人工智能被滥用于欺诈和深度伪造操作,网络安全公司Sophos在上周发布的一份报告中表示,该技术还可能被滥用,通过目标电子邮件传播定制的虚假信息。这意味着滥用人工智能模型来编造政治竞选网站、人工智能生成的跨政治派别的角色,以及根据竞选要点专门针对他们的电子邮件信息发送虚假信息,从而实现新的自动化水平,从而可以大规模传播错误信息。

研究人员Ben Gelman和Adarsh Kyadige表示:“这意味着用户只需稍加配置就可以生成任何内容,从良性的竞选材料到故意误导的信息和恶意威胁。”

“任何真正的政治运动或候选人都有可能支持任何政策,即使他们并不同意。像这样的故意误导可能会让人们支持他们并不支持的候选人,或者不同意他们认为自己喜欢的候选人。”

*本文为闫志坤编译,原文地址:https://thehackernews.com/2024/10/openai-blocks-20-global-malicious.html

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论