雇主可能会喜欢生成性人工智能——直到某个员工将内部财务数据或专有代码粘贴到 ChatGPT、Claude 或 Gemini 中,公司机密随之飘入云端。
Cloudflare 的技术为近 20% 的网络提供支持,今天在其企业安全平台 Cloudflare One 中推出了 AI 监督功能。该功能使 IT 团队能够即时了解谁在与 AI 聊天——以及他们秘密输入了什么。该公司将其定位为员工生成性 AI 使用的“X 光眼”,嵌入到 IT 人员已经使用的仪表板中。
“管理员现在可以回答诸如:我们的员工在 ChatGPT 中做什么?在 Claude 中上传和使用了什么数据?Gemini 在 Google Workspace 中配置正确吗?”该公司在其博客文章中表示。
不再是影子 AI
Cloudflare 表示,四分之三的员工在工作中使用 ChatGPT、Claude 或 Gemini,进行文本编辑、数据处理、调试和设计等各种工作。问题在于,敏感数据通常在没有留下痕迹的情况下消失在 AI 工具中。Cloudflare 的产品在 API 级别集成,并扫描可疑的上传内容。
根据该公司的说法,一个恶意提示可以立即用您的机密数据训练外部模型,而这些数据随后将永远消失。
在企业安全领域,像 Zscaler 和 Palo Alto Networks 这样的更大竞争对手也提供 AI 监督。Cloudflare 声称,Cloudflare One 的独特之处在于其混合的无代理模型。它结合了带外 API 扫描(用于姿态、配置和数据泄露)与在 ChatGPT、Claude 和 Gemini 上强制执行的内联提示控制——所有这些都不需要在终端上安装软件。
一个言论自由的绝对主义者
Cloudflare 长期以来将自己品牌为内容中立的基础设施提供商——而不是调解者——这意味着它通常不会监管客户发布的内容,除非法律要求这样做。这一立场可以追溯到十多年前:首席执行官 Matthew Prince 强调,Cloudflare 不是一个托管平台,不决定什么内容是允许的;相反,它只是确保网站——无论其意识形态如何——保持在线和受到保护。
这种“言论自由绝对主义者”的做法引发了审查。批评者指出,Cloudflare 使充满仇恨、极端或其他有害的网站保持可访问——通常仅仅是因为没有权威请求要求删除它们。2022 年的一项斯坦福研究发现,Cloudflare 相对于其整体互联网流量份额,过度服务于虚假信息网站。
尽管如此,也有少数反转情况。2017 年,Cloudflare 终止了对白人至上主义网站 The Daily Stormer 的服务——这一有争议的举动是在该网站错误声称 Cloudflare 秘密分享其亲纳粹信仰后做出的。Prince 后来将这一决定描述为在压力下做出的勉强例外,迫使其打破中立政策。
同样,在 2019 年,Cloudflare 在与大规模枪击事件相关后,停止了对 8chan 的支持,承认该社区已变得危险无序。
最近,在 2022 年,Cloudflare 最终在日益严重的骚扰、曝光和对人类生命的威胁中撤回了对 Kiwi Farms 的支持。这一关闭是在活动人士的压力和暴力升级的报告后进行的。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。