据The Hacker News报道,网络安全研究人员在Hugging Face平台上发现了两个恶意机器学习(ML)模型。这些模型利用了“损坏”的pickle文件技术,成功规避了安全检测。ReversingLabs研究员Karlo Zanki表示,从PyTorch存档中提取的pickle文件揭示了恶意Python内容,包含典型的平台特定反向shell,连接到硬编码的IP地址。
这种方法被称为nullifAI,旨在绕过现有安全防护措施。Hugging Face上的两个相关模型存储库分别为glockr1/ballr7和who-r-u0000/0000000000000000000000000000000000000。尽管这些模型被认为是概念验证而非真实攻击案例,但它们展示了pickle序列化格式的安全隐患。由于其允许执行任意代码,pickle文件一直被认为存在风险。
被检测出的模型使用7z格式压缩,而非常见的ZIP格式,从而避开了Hugging Face的Picklescan工具的检测。Zanki指出,即使反序列化过程中出现错误,恶意代码仍能部分执行。该问题已被修复,Picklescan工具也已更新版本。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。