这项被称为“Endor 评分”的独特功能,旨在通过提供直观的分数,简化在 Hugging Face 平台上识别当前可用的最安全开源人工智能模型的过程。

 

Endor实验室推出人工智能模型的评估工具

Endor Labs 已经启动了对人工智能模型的评分机制,评分依据包括模型的安全性、受欢迎程度、质量以及活跃度。 这项被称为“Endor 评分”的独特功能,旨在通过提供直观的分数,简化在 Hugging Face 平台上识别当前可用的最安全开源人工智能模型的过程。 在此公告发布之时,越来越多的开发人员正转向 Hugging Face 等平台,以获取现成的人工智能模型,这与早期开源软件(OSS)的普及情况相似。

此次发布通过使开发人员能够“干净地开始”使用人工智能模型,旨在改善人工智能治理,这一目标之前一直难以达成。 Endor Labs 的联合创始人兼首席执行官 Varun Badhwar 表示:“我们始终致力于确保代码所依赖的一切都是安全的,而人工智能模型正是我们接下来要面对的关键领域。” “每个组织都在尝试使用人工智能模型,无论是为了特定应用提供动力,还是构建基于人工智能的整个业务。安全性必须同步提升,这里有一个难得的机会可以干净地开始,从而避免未来可能的风险和高昂的维护成本。”

Endor Labs 的创始工程师 George Apostolopoulos 补充说:“目前,每个人都在尝试人工智能模型。一些团队正在创建全新的基于人工智能的业务,而其他团队则在寻找方法,希望在他们的产品上贴上‘由人工智能驱动’的标签。可以肯定的是,你的开发人员正在使用人工智能模型。” 然而,这种便利也伴随着风险。Apostolopoulos 警告称,当前的局势类似于“狂野西部”,人们在获取满足他们需求的模型时,往往没有考虑到潜在的安全漏洞。

Endor Labs 将人工智能模型视为软件供应链中的一个依赖因素。 “Apostolopoulos 表示:“我们在 Endor Labs 的使命是‘确保你的代码所依赖的一切都是安全的’。这种观点使得组织能够将人工智能模型与其他开源组件一样,进行类似的风险评估。” Endor 用于评分人工智能模型的工具,主要关注几个关键风险领域: 安全漏洞:预训练模型可能隐藏恶意代码或包含漏洞,这些漏洞在模型被集成到组织的环境中时,可能会导致安全问题。

法律和许可问题:遵守许可条款至关重要,尤其是考虑到人工智能模型及其训练数据集的复杂来源。 操作风险:依赖预训练模型会形成复杂的图表,这可能难以管理和确保安全。为了解决这些问题,Endor Labs 的评估工具对 Hugging Face 上的人工智能模型执行了 50 项预设的检查。该系统根据维护者数量、企业赞助、发布频率以及已知漏洞等因素,生成“Endor Score”。

在人工智能模型评分系统中,积极因素包括采用安全的权重格式、存在许可信息以及高下载量和参与度指标。而消极因素则包括文档不完整、缺少性能数据以及使用不安全的权重格式。 Endor 评分的一个关键特性是其用户友好的方法。开发人员无需了解具体模型名称;他们可以从一般性问题开始搜索,例如“哪些模型可用于情感分类?”或“Meta 中最受欢迎的模型有哪些?” 随后,该工具会提供清晰的分数,对每个模型的优缺点进行排名,帮助开发人员选择最符合他们需求的选项。

“你的团队每天都会被问到关于人工智能的问题,他们将寻找可以加速创新的模型。使用 Endor Labs 评估开源人工智能模型,可以帮助确保你所使用的模型能够满足你的期望,并且是安全的。”

© 版权声明

相关文章

返回顶部