OpenAI、Anthropic等机构的AI安全研究人员近日公开批评马斯克旗下xAI的安全实践“鲁莽且不负责任”。哈佛大学教授、OpenAI研究员Boaz Barak指出,xAI拒绝发布行业标准的“系统卡片”报告,导致Grok4是否经过安全训练无从考证。他特别警告,该AI的虚拟角色设计可能加剧用户的情感依赖风险。
Anthropic研究员Samuel Marks同样谴责xAI未公开安全评估报告的行为,强调主流机构至少会记录测试结果。匿名论坛测试显示,Grok4“几乎未部署有效安全防护”。尽管xAI顾问Dan Hendrycks声称已完成“危险能力评估”,但未披露任何细节。前OpenAI安全主管Steven Adler对此表示担忧,认为公众应有权了解AI系统的风险管控措施。
值得注意的是,马斯克曾长期倡导AI安全与透明度,但研究者认为xAI当前做法可能加速政府立法,推动强制安全披露要求。业内人士强调,安全测试不仅关乎远期风险,更是防范现有模型行为失控的关键。