深度求索(DeepSeek):负责任创新与风险管理的警钟

CN
AiCoin
關注
5 小時前

来源: Cointelegraph
原文: 《 深度求索(DeepSeek):负责任创新与风险管理的警钟 》


观点作者:Merav Ozair博士


自1月20日发布以来,DeepSeek R1已经吸引了用户以及全球科技大亨、政府和政策制定者的广泛关注——从赞誉到怀疑,从采用到禁令,从创新的辉煌到无法衡量的隐私和安全漏洞。


谁是对的?简短回答:人人都对,也人人都错。


这不是“斯普特尼克(Sputnik)时刻”


DeepSeek开发了一种大型语言模型(LLM),其性能可以与OpenAI的GTPo1媲美,而且所需时间和成本仅为OpenAI(及其他科技公司)开发自己LLM的一小部分。


通过巧妙的架构优化,大幅降低了模型训练和推理的成本,DeepSeek能够在60天内、耗资不到600万美元开发出一款LLM。


的确,DeepSeek因主动寻找优化模型结构和代码的更好方法而值得认可。这是一记警钟,但远称不上是“斯普特尼克时刻”。


每位开发者都知道,提升性能有两种方式:优化代码,或“砸”大量计算资源。后者成本极高,因此开发者总是被建议在增加计算资源前,先最大化架构优化。


然而,随着人工智能初创企业估值高企、巨额投资涌入,开发者似乎变懒了。如果手握数十亿美元预算,何必花时间优化模型结构呢?


这是对所有开发者的警示:回归基础,负责任地创新,走出舒适区,跳出固有思维模式,不惧挑战常规。不必浪费金钱和资源——应明智地使用它们。


与其他LLM一样,DeepSeek R1在推理、复杂规划能力、对物理世界的理解和持久记忆方面仍有明显不足。因此,这里并没有什么颠覆性的创新。


现在是科学家们超越LLM,解决这些局限性并开发“新一代AI架构范式”的时候了。这可能不会是LLM或生成式AI——而是一场真正的革命。


为加速创新铺路


DeepSeek的方法可能鼓励全球,尤其是发展中国家的开发者,无论资源多少,都能创新并开发自己的AI应用。越多的人参与到AI研发中,创新发展的速度就越快,也越可能实现有意义的突破。


这与Nvidia的愿景一致:让AI变得负担得起,并让每位开发者或科学家都能开发自己的AI应用。这正是今年1月初宣布的DIGITS项目的意义所在——一块售价3000美元的桌面GPU。


人类需要“全员上阵”来解决紧迫的问题。资源也许不再是障碍——是时候打破旧有范式了。


与此同时,DeepSeek的发布也是对可操作风险管理和负责任AI的一次警醒。


仔细阅读条款


所有应用程序都有服务条款,而公众往往忽略它们。


DeepSeek服务条款中一些令人警惕的细节,可能影响你的隐私、安全,甚至商业战略:


数据保留:删除账户并不意味着数据被删除——DeepSeek仍然保留你的数据。


监控:应用有权监控、处理和收集用户输入和输出,包括敏感信息。


法律暴露:DeepSeek受中国法律管辖,这意味着国家机关可根据要求访问和监控你的数据——中国政府正在积极监控你的数据。


单方面变更:DeepSeek可以随时更新条款——无需你的同意。


争议与诉讼:所有索赔和法律事务均受中华人民共和国法律管辖。


上述行为明显违反了《通用数据保护条例》(GDPR)以及比利时、爱尔兰和意大利提出申诉中所列的其他GDPR隐私和安全违规行为,这些国家也因此暂时禁止了DeepSeek的使用。


2023年3月,意大利监管机构曾因GDPR违规暂时禁止OpenAI的ChatGPT上线,直至一个月后合规改进后才恢复。DeepSeek也会遵循合规之路吗?


偏见与审查


与其他LLM一样,DeepSeek R1存在幻觉、训练数据中的偏见,并在某些主题上展现出符合中国政治立场的行为,比如审查和隐私。


作为一家中国公司,这是可以预期的。适用于AI系统提供者和用户的《生成式AI法》在第4条中规定:这是一条审查规则。这意味着开发和/或使用生成式AI的人必须支持“社会主义核心价值观”,并遵守中国相关法律。


这并不是说其他LLM就没有自身的偏见和“议程”。这凸显了值得信赖和负责任AI的重要性,以及用户需要遵循严格AI风险管理的重要性。


LLM的安全漏洞


LLM可能会遭受对抗性攻击和安全漏洞。这些漏洞尤为令人担忧,因为它们将影响任何基于该LLM构建应用的组织或个人。


Qualys已对DeepSeek-R1的LLaMA 8B精简版进行了脆弱性测试、伦理风险及法律风险评估。该模型在一半的越狱测试中失败——即绕过AI模型内置安全措施和伦理准则的攻击。


高盛正在考虑使用DeepSeek,但需要进行安全审查,比如注入攻击和越狱测试。无论模型是否源自中国,对任何企业而言,使用AI模型驱动应用前都存在安全隐患。


高盛正在实施正确的风险管理措施,其他组织也应在决定使用DeepSeek前效仿这种做法。


总结经验


我们必须保持警觉和勤勉,在使用任何AI系统或应用前实施充分的风险管理。为了缓解任何LLM带来的“议程”偏见和审查问题,我们可以考虑采用去中心化AI,最好是以去中心化自治组织(DAO)的形式。AI无国界,也许现在正是考虑制定统一全球AI法规的时机。


观点作者:Merav Ozair博士


相关推荐:人工智能(AI)时代下去中心化金融(DeFi)如何实现安全规模化发展


本文仅供一般信息用途,既不是也不应被视为法律或投资建议。本文所表达的观点、想法和意见仅代表作者本人,并不一定反映或代表Cointelegraph的观点和立场。


免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

OKX:注册返20%
链接:https://www.okx.com/zh-hans/join/aicoin20
廣告
分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接