OpenAI推出了其迄今为止最具自主性的AI工具:一个可以浏览网页、运行应用程序并在几乎没有人类输入的情况下完成现实世界任务的ChatGPT版本。但随着能力的飞跃,也带来了严峻的警告:这项技术可能会引发新一波的安全威胁。
在周四发布的ChatGPT Agent使用户能够委派复杂的任务,例如规划假期、预订酒店、研究竞争对手、生成幻灯片以及甚至在线下订单。
该功能将于今天开始向Pro、Plus和Team用户推出。
为了完成任务,代理使用一个虚拟计算机和一套统一的工具,包括基于文本的浏览器、终端以及对第三方应用程序(如Google Drive和GitHub)的访问。虚拟计算机是一个在云中运行的模拟计算环境,ChatGPT代理可以独立控制——有点像给AI一个自己的私有沙盒机器来进行实际工作。
“我认为这是AI能力的新水平,”OpenAI首席执行官山姆·阿尔特曼在由团队成员进行的产品直播演示中表示。然而,这次直播也值得注意的是OpenAI给出的“买家谨慎”警告的数量。
“这是一种使用AI的新方式,但会伴随出现一系列新的攻击,”阿尔特曼说。“社会和技术必须进化,学习如何减轻我们甚至无法想象的事情,因为人们开始以这种方式做越来越多的工作。”
一个例子:代理可以研究购买,发现钓鱼网站上的商品并提供用户的信用卡信息。为了缓解这个问题,当前版本有多项安全措施,例如,直到用户手动批准之前,代理不会上传信用卡信息。
“我们已经训练模型忽略风险网站上的可疑指令,”OpenAI研究员凯西·朱说。“我们还有监控器监视代理的行为,如果有任何可疑情况会立即停止。”
朱补充说,尽管系统安全措施可以实时更新,但ChatGPT代理仍然是一个“尖端产品”,为新的利用形式打开了大门。
“用户理解风险并对他们分享的信息保持谨慎是很重要的,”他说。
ChatGPT Agent的发布正值AI开发者努力为虚拟助手赋予越来越强大能力的时刻。周三,谷歌在Google搜索中推出了一项新的AI驱动功能,使其Gemini AI能够代表用户拨打电话给企业。
“ChatGPT Agent仍处于早期阶段,我们正在利用这段时间从现实世界的使用中学习,以改善产品和我们的安全措施,”OpenAI的一位代表告诉Decrypt。“当前的系统卡反映了我们目前的方法,但我们正在为下一步做准备,并将在改进代理的过程中继续分享更新。”
网络安全专家也对自主代理的影响表示担忧。
“由于代理在对话中隐含地具有透露个人身份信息的权力,因此需要高度关注,”网络安全公司0rcus的联合创始人兼首席执行官尼克·亚当斯说。“用户应授予细粒度、可撤销的范围,例如目标业务、目的、允许的数据元素和到期时间戳。”
在最佳实践方面,亚当斯建议在执行后,代理应提供完整的记录以供批准,然后再将任何信息存储超过法律要求的时间。
“默许的全面同意将把责任转移给用户,而没有实质性的控制,”他说。“因此,逐项确认模型是必要的。”
除了让AI代理进行购买或计划的风险外,OpenAI的研究人员一致认为,这种自主水平引入了新的威胁,特别是提示注入攻击,其中恶意输入欺骗AI泄露数据、传播错误信息或采取未经授权的行动。
为了减轻这些风险,OpenAI开发了接管模式,顾名思义,这使用户能够从代理那里接管并自己输入信息,而不是依赖代理。在某些情况下,ChatGPT代理将在采取重要行动(如进行购买或访问敏感数据)之前请求用户的明确批准。
“我们构建了一个强大的工具,但用户需要保持谨慎,”朱说。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。