国家支持的黑客正在使用包括双子座在内的热门人工智能工具,谷歌警告。

CN
Decrypt
关注
3小时前

谷歌的威胁情报组 (GTIG) 再次敲响了警钟,发布了最新报告,探讨了人工智能如何被危险的国家支持黑客利用。


该团队已识别出模型提取尝试的增加,这是一种知识产权盗窃的方法,在这种方法中,某人反复查询一个人工智能模型,试图学习其内部逻辑并将其复制到一个新模型中。



虽然这令人担忧,但它并不是谷歌所担心的主要风险。报告继续警告政府支持的威胁行为者利用大型语言模型 (LLMs) 进行技术研究、目标锁定和快速生成细致的钓鱼诱饵。


该报告强调了对朝鲜、伊朗、中国和俄罗斯的担忧。


双子座与钓鱼攻击


这些行为者据报道正在使用人工智能工具,例如谷歌自己的双子座,进行侦查和目标分析,利用大规模的开源情报收集,以及创建高度个性化的钓鱼诈骗。


谷歌的报告指出:“这一活动强调了朝向人工智能增强的钓鱼便利性的发展,LLM 的速度和准确性可以绕过传统上需要手工劳动的受害者分析。”


“受害者长期以来依赖的指标,例如糟糕的语法、尴尬的句法或缺乏文化背景,来帮助识别钓鱼尝试。越来越多的威胁行为者现在利用 LLMs 生成高度个性化的诱饵,可以模仿目标组织的专业语气。”


例如,如果双子座获得了目标的传记,它可以生成一个良好的角色,并帮助最佳呈现一个有效吸引他们注意力的场景。通过使用人工智能,这些威胁行为者还可以更有效地进行本地语言的翻译。


随着人工智能生成代码的能力不断增强,这也打开了其恶意使用的大门,这些行为者利用人工智能的 vibe 编码功能进行故障排除并生成恶意工具。


报告继续警告对代理性人工智能实验的兴趣日益增长。这是一种具有一定自主性的人工智能,支持恶意软件开发及其自动化等任务。





谷歌指出其通过多种方式打击这一问题的努力。除了每年多次创建威胁情报报告外,该公司还有一个团队不断搜索威胁。谷歌还在实施措施,将双子座增强为无法用于恶意目的的模型。


通过谷歌深度学习,团队试图在这些威胁成为可能之前识别它们。实际上,谷歌希望识别恶意功能,并在它们可能构成风险之前将其移除。


虽然报告明确表明,人工智能在威胁环境中的使用有所增加,但谷歌指出,目前尚无突破性的能力。相反,只是工具和风险的使用增加了。


免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接