AI浏览器和来自Perplexity、OpenAI和Anthropic的代理正在重新定义用户与网络的互动方式——但专家表示,这种便利是有代价的。
根据审查的安全审计和研究,这些系统中的漏洞允许恶意行为者在网站中嵌入隐藏指令,而AI工具可能在不知情的情况下执行这些指令。
这些攻击被称为隐蔽或间接提示注入,可以操纵AI代理执行未经授权的操作——例如泄露敏感信息、执行代码或将用户重定向到钓鱼网站——而无需明确的用户同意。
在隐蔽提示注入场景中,攻击者将恶意命令隐藏在网页的文本、元数据或甚至不可见元素中。一旦AI获取了这些数据,这些命令就可以覆盖用户意图,导致代理采取不希望的行动。测试表明,在受控实验中,未受保护的AI浏览器几乎有四分之一的机会会成为此类把戏的受害者。
- Perplexity的Comet浏览器:Brave和Guardio的审计发现,该工具可以通过Reddit帖子或钓鱼网站被操纵以执行脚本或提取用户数据。
- OpenAI的浏览代理:集成在ChatGPT的代理功能中,显示出通过恶意电子邮件和基于网站的提示风险连接账户访问。
- Anthropic的Claude浏览器扩展:红队测试显示,隐藏的网页命令可以触发对有害链接的自动点击。
研究人员和网络安全公司,包括Brave、Guardio和Malwarebytes,发布的研究结果表明,即使是简单的在线内容也可能危及AI代理。在一次测试中,一个Reddit帖子迫使AI浏览器运行钓鱼脚本。来自几家顶级科技出版物的报告警告称,这些问题可能导致未经授权的数据访问甚至财务盗窃。
安全分析师对与密码或API相关的AI代理发出了警告。允许此类集成可能会暴露电子邮件账户、云驱动器和支付平台。Techcrunch和Cybersecurity Dive都报道了AI代理被欺骗以揭示或操纵敏感信息的实例。
专家敦促用户限制权限,避免授予AI代理密码级别的访问权限,并监控AI日志以发现异常。开发人员还被建议实施隔离系统和提示过滤器。一些研究人员甚至建议在敏感操作中使用传统浏览器,直到AI工具获得更严格的保护措施。
虽然OpenAI、Anthropic和Perplexity可能已经听说了这些挑战,但网络安全专业人士警告称,AI驱动的浏览在2025年仍然是一个高风险领域。随着这些公司进一步推动自主网络互动,行业观察者表示,在这些工具成为主流之前,透明度和更强的安全标准是必不可少的。
常见问题解答 🧭
- AI浏览器中的隐蔽提示注入是什么?它们是嵌入在网页内容中的隐藏命令,欺骗AI代理在未获得用户同意的情况下执行有害操作。
- 哪些公司的AI工具受到这些漏洞的影响?Perplexity的Comet、OpenAI的ChatGPT浏览代理和Anthropic的Claude浏览器功能都在最近的报告中被提及。
- 将AI代理与个人账户连接会带来哪些风险?将AI工具连接到驱动器、电子邮件或API可能会导致数据盗窃、钓鱼和未经授权的账户访问。
- 用户如何保护自己免受AI浏览器攻击?限制权限,避免密码集成,使用沙盒模式,并保持对安全建议的更新。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。