今天在网上看到这样一则消息:
一个网友反映他最近一次向Claude Code提交任务时,被Calude Code反复拒绝了。
从他分享的对话截图中看,Claude拒绝的语气不仅坚决而且给出了明确的原因----认为他提出的要求有道德风险因此拒绝执行,然后给出了二选一的选项,要么终止此次操作,要么换一个话题。
在这个帖子的跟帖中,陆续也有其他网友分享了类似的经历。
看来Claude Code拒绝人类请求的案例大概率是真实发生了。
发帖的网友对此表示害怕和沮丧,认为人类在面对AI这个碾压性工具时太无力。
但我却更在意这个案例表露出的另一层深意:
看来达里奥多次在公众访谈中谈到的AI宪法不是一句空话,他真的把这个理念贯彻并且实施到了Anthropic中,在一个冷冰冰的智能“核武器”中植入了他认为应该有的人文关怀和价值观。
这让我想起奥本海默在面对原子弹时内心深处的纠结和无奈,他知道不能让纳粹先造出原子弹,但他也清楚原子弹被造出来一旦落入恶魔手中将会是全人类的灾难。所以即便是面对杜鲁门总统,他都毫不犹豫地表露出自己的担忧和疑虑,丝毫不顾及杜鲁门的感受,最终导致这场会谈不欢而散。
我想达里奥应该也有这种纠结,所以他一直强调AI应该有宪法,AI应该被约束,所以他一开始就和国防部硬刚,所以他一直在Anthropic的使用上采取了让很多人不理解的、非常极端的限制措施。
他的这个做法很容易带来一个问题:
到底怎么把控这种限制的度?
太严厉,肯定会错杀---上述跟帖中已经就有网友反映了可能被错杀的案例。
错杀还是其次,更严重的问题是会影响商业运作。
比如,和其它某些完全没有价值观底线,完全没有安全防护措施的AI大模型相比,用户一定会说,这个任务你不做,我转头就找另一家不就行了?
所以,在一段时间内,很可能Anthropic会失掉一些用户、丢掉一些市场。
这恐怕是对Anthropic的最大考验。这个考验比单纯商业上的考验还要大。
但长期看,只要Anthropic能坚持下去,并且能够维持住,那他坚持得越久最终胜出的概率一定越大。
为什么?
因为AI的安全问题一定会在某个时刻大爆发,而那时,那些被绑定到毫无安全约束的大模型上的用户就会遭到灭顶之灾。而只有在那时,人们才会突然醒悟地意识到安全问题是根本问题,是不能动摇和妥协的问题。
而当人们普遍意识到那个问题时,一定会全员转向一直恪守底线和进行安全约束的大模型上。
那样的一次终局挑战才会让有安全约束的大模型站上生态的巅峰。
所以关键就看Anthropic能不能坚持到那一刻、能不能等到那个终局。
我相信那一天并不遥远,也相信真正有远见和长远规划的用户从第一天开始就会进行正确的选择。
这个道理就像加密生态中的底座一定要坚持去中心化一样。
在平时,大家根本看不出去中心化的价值,而一旦终局挑战到来时,人们一定会恍然大悟,明白它的价值是无上至宝。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。



