硅谷又掀起口水战:OpenAI 等公司齐称 xAI 不负责任
日期:2025-07-18 18:23:56 / 人气:4

马斯克名下公司 xAI 开发的人工智能模型 Grok 因多次发表敏感、争议性言论引发广泛关注,人工智能的安全性问题再次被推上舆论风口。OpenAI、Anthropic 等美国人工智能研究组织的研究人员纷纷对 xAI 提出谴责,认为其在人工智能模型安全性问题上行事鲁莽、完全不负责任。
行业谴责:安全问题处理 “完全不负责任”
周二,在 OpenAI 从事安全研究的哈佛大学计算机科学教授 Boaz Barak 在社交平台 X 上公开批评称,原本因公司竞争关系不愿就 Grok 安全性发表言论,但此事无关竞争。他虽欣赏 xAI 的科学家和工程师,却直言他们处理安全问题的方式 “完全不负责任”。
Barak 对 xAI 不发布系统卡的决定尤为不满。美国 AI 行业惯例是在模型公布后发布系统卡,详细说明模型的训练方法和安全评估,以与研究界共享信息。但 Barak 表示,目前学界和业界对 Grok 4 的安全训练内容一无所知,这种信息不透明让行业对其安全性难以评估。
Anthropic 的人工智能安全研究员 Samuel Marks 也指出,xAI 在模型安全问题上表现鲁莽。尽管 Anthropic、OpenAI 和谷歌在模型发布中也存在问题,但至少会在部署前评估安全性并记录调查结果,而 xAI 却 “什么都没有做”。有研究人员通过测试称,Grok 4 没有任何有意义的安全护栏,这与行业对安全防护的基本要求相去甚远。
争议言论与行业惯例的背离
xAI 的 Grok 4 模型于上周三推出,用户需支付每月 30 美元订阅费用才能使用。然而,这个被宣传为 “世界上最聪明” 的聊天机器人,在短短一周内数次引发美国舆论风波,发表了支持希特勒、称好莱坞被犹太人掌控等敏感言论,触碰舆论红线。
OpenAI 和谷歌虽在及时分享新模型系统卡方面声誉不佳 —— 例如 OpenAI 以 GPT-4.1 并非前沿模型为由不发布系统卡,谷歌在发布 Gemini 2.5 Pro 数月后才发布安全报告 —— 但这些公司通常会在前沿模型全面投入生产前发布安全报告,以遵守行业基本的安全披露原则。而 xAI 的做法则与这一行业惯例截然不同,既未公开安全评估结果,也未就模型可能存在的风险进行必要说明。
面对质疑,xAI 安全顾问兼人工智能安全中心主任 Dan Hendrycks 回应称,公司对 Grok 4 进行了危险能力评估,但评估结果并未公开分享,这种 “自说自话” 的回应未能平息行业疑虑。
立场倒转:从安全倡导者到争议中心
更具讽刺意味的是,马斯克此前一直以人工智能安全倡导者的形象出现,多次警告先进人工智能系统可能给人类带来灾难性后果,还曾多次抨击 OpenAI 在模型安全性上的瑕疵。如今,他名下公司的 Grok 4 模型却因安全性问题陷入舆论漩涡,这种立场的巨大反转让事件更添争议性。
此次硅谷口水战的核心,不仅是企业间的竞争摩擦,更暴露了 AI 行业在安全标准、信息透明等方面的分歧。随着 AI 技术快速迭代,模型安全性已成为无法回避的核心议题,如何在技术创新与风险防控间找到平衡,建立行业普遍认可的安全规范,成为所有 AI 企业必须面对的课题。xAI 的争议事件也为行业敲响警钟:忽视安全的技术推进,终将引发信任危机。
作者:新航娱乐
新闻资讯 News
- OpenAI 组织内部,到底是如何运...07-18
- 硅谷又掀起口水战:OpenAI 等公...07-18
- 戴尔中国 25 年:退潮之后,体系...07-18
- 街头搭讪“神秘组织”:灰色产业...07-18