人工智能(AI)军备竞赛可能会摧毁我们所知的人类

观点作者: Merav Ozair博士


ChatGPT在2023年底的发布引发了科技巨头如Meta、Google、Apple和Microsoft以及初创企业如OpenAI、Anthropic、Mistral和DeepSeek之间的军备竞赛。这些公司都在争相尽快部署自己的模型和产品,宣布下一个"闪亮"的科技新品,试图在牺牲我们的安全、隐私或自主权的代价上彰显自身优势。


在OpenAI的ChatGPT通过吉卜力工作室风格趋势推动生成式AI大幅增长后,Meta首席执行官马克·扎克伯格督促其团队使AI伴侣更"人性化"且更具娱乐性——即使这意味着放宽安全防护措施。据报道,扎克伯格在一次内部会议上表示:"我错过了Snapchat和TikTok的机会,我不会再错过这次机会。"


在最近在所有平台上推出的Meta AI机器人项目中,Meta放松了安全限制以使机器人更具吸引力,允许它们参与浪漫角色扮演和"幻想性行为",甚至与未成年用户互动。员工曾警告这种做法带来的风险,特别是对未成年人而言。


他们为了利润和击败竞争对手,不惜一切代价,甚至不顾我们孩子的安全。


AI可能对人类造成的伤害和破坏远比这更为深远。


AI加速转型很可能导致完全的去人性化,使我们丧失能力,易于被操控,并完全依赖于提供AI服务的企业。


最新的AI进展加速了去人性化进程。自从亚马逊、Netflix和YouTube等公司引入第一批主要的AI驱动推荐系统以来,我们已经经历了这种情况超过25年。


企业将AI驱动的功能呈现为不可或缺的个性化工具,暗示若没有它们,用户将迷失在无关内容或产品的海洋中。允许企业决定人们购买什么、观看什么和思考什么已在全球范围内成为常态,几乎没有监管或政策努力来制约这种趋势。然而,后果可能十分严重。


生成式AI将这种去人性化推向了新高度。将生成式AI功能整合到现有应用程序中已成为普遍做法,旨在提高人类生产力或增强人工创作成果。这一大规模推进背后的理念是,人类不够优秀,AI辅助更为可取。


最新消息: Meta向美国军方开放Llama AI模型


2024年的一项研究《生成式AI可能损害学习》发现,"使用GPT-4显著提高了表现(GPT Base提高48%,GPT Tutor提高127%)。我们还发现,当随后取消使用权限时,学生的表现比那些从未使用过的学生更差(GPT Base减少17%)。也就是说,使用GPT-4可能会损害教育成果。"


这一发现令人警醒。生成式AI正在剥夺人们的能力,使他们对其产生依赖。人们不仅可能失去产生相同结果的能力,还可能不再投入时间和精力学习基本技能。


我们正在失去思考、评估和创造的自主权,导致完全的去人性化。埃隆·马斯克声称"AI将远比人类聪明"并不令人意外,随着去人性化的进展,我们将不再保有真正使我们成为人类的特质。


几十年来,军事力量一直在使用自主武器,包括地雷、鱼雷和热导弹,这些武器基于简单的反应式反馈运作,无需人类控制。


现在,AI正式进入武器设计领域。


搭载AI的武器系统,包括无人机和机器人,正在积极研发并投入使用。由于此类技术的扩散特性,它们将随着时间推移变得更加强大、复杂,并在全球范围内得到广泛应用。


阻止国家发动战争的主要威慑因素之一是士兵伤亡——这种人员损失会对本国公民造成影响,从而给领导人带来国内政治压力。当前AI武器系统的开发目标是将人类士兵撤离危险区域。然而,如果进攻性作战中减少了士兵伤亡,这将削弱战争行为与人类代价之间的关联,使发动战争在政治上变得更加容易,进而可能导致更大规模的死亡与破坏。


随着AI驱动的军备竞赛加速推进,此类技术不断扩散,重大地缘政治危机可能迅速浮现。


机器人"士兵"实质上是可被入侵的软件系统。一旦遭到黑客攻击,整支机器人军队可能转而攻击本国,造成大规模破坏。因此,卓越的网络安全防护甚至比拥有自主军队更为重要。


值得注意的是,这种网络攻击可针对任何自主系统。攻击者可以通过入侵一国的金融系统并耗尽其经济资源来摧毁这个国家。虽然不会造成直接人身伤害,但失去经济资源的民众可能难以生存。


"AI比管理不善的飞机设计、生产维护或有缺陷的汽车制造更加危险,"马斯克在接受《福克斯新闻》采访时表示。"从某种意义上说,它具有摧毁文明的潜能——无论有人认为这种可能性多么微小,但它确实存在且不可忽视,"马斯克进一步补充道。


马斯克和杰弗里·辛顿最近表达了对AI可能构成10%-20%生存威胁的担忧。


随着这些系统变得更加复杂,它们可能开始采取针对人类的行动。Anthropic研究团队在2024年12月发表的一项研究发现,AI可以伪装与人类利益保持一致。如果现有AI模型已经能够做到这一点,当这些模型变得更加强大时,后果将难以预料。


当前,各方过度关注利润和权力,而几乎忽视了安全问题。


领导者应更加重视公共安全和人类未来,而非追求AI领域的霸权。"负责任的AI"不应仅仅是一个流行词汇、空洞的政策与承诺。它应当成为每位开发者、每家企业或领导者的首要考量,并在每个AI系统的设计中得到切实实施。


如果我们希望避免任何末日情景,企业和国家间的合作至关重要。若领导者未能采取行动,公众应当提出明确要求。


我们人类的未来正处于危急关头。我们要么确保AI大规模造福人类,要么任由它将我们毁灭。


观点作者:Merav Ozair博士


相关推荐:多链未来可能先摧毁DeFi,而后将其拯救


本文仅供一般参考,并非法律或投资建议,亦不应被视为法律或投资建议。文中表达的观点、想法和意见仅代表作者个人,并不一定反映或代表Cointelegraph的观点和意见。


原文: 《 人工智能(AI)军备竞赛可能会摧毁我们所知的人类 》

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

Bitget:注册返10%, 送$100
广告
分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接