苹果的研究人员于周三在 Hugging Face 模型库上发布了 OpenELM,这是一系列四个非常小的语言模型。苹果在其 Hugging Face 模型页面上表示,OpenELM(即 “开源高效语言模型”)在类似电子邮件写作等文本相关任务上表现非常高效。这些模型是开源的,准备好供开发人员使用。

苹果一直对其生成式人工智能的计划保持沉默,但随着今天发布新的 AI 模型,公司的即时目标似乎牢固地落在 “使 AI 本地运行在苹果设备上” 的领域。

苹果的研究人员于周三在 Hugging Face 模型库上发布了 OpenELM,这是一系列四个非常小的语言模型。苹果在其 Hugging Face 模型页面上表示,OpenELM(即 “开源高效语言模型”)在类似电子邮件写作等文本相关任务上表现非常高效。这些模型是开源的,准备好供开发人员使用。

OpenELM 甚至比大多数轻量级 AI 模型更小,分为四种规格:2.7亿个参数;4.5亿个参数;11亿个参数;和30亿个参数。参数是指模型在决策中从其训练数据集中理解的变量数量。例如,微软最近发布的 Phi-3模型底线为38亿个参数,而谷歌的 Gemma 提供了20亿参数版本。小型模型更便宜且经过优化,可在手机和笔记本等设备上运行。

苹果首席执行官蒂姆・库克暗示,生成式人工智能功能将登陆公司的设备,他在二月表示,苹果正在 “花费大量时间和精力” 在这一领域。然而,苹果尚未透露其使用人工智能的具体计划。公司之前发布过其他 AI 模型,尽管尚未像竞争对手那样发布任何商用 AI 基础模型。

去年12月,苹果推出了 MLX,这是一个机器学习框架,理想情况下能让 AI 模型在苹果芯片上更好地运行。它还发布了一个名为 MGIE 的图像编辑模型,让人们可以通过提示修复照片。
另一个名为 Ferret-UI 的模型可用于导航智能手机。据传,苹果还在研发类似 GitHub 的 C o p i l o t 的代码完成工具。然而,即使苹果发布了这么多模型,公司据称仍与谷歌和 OpenAI 合作,将它们的模型引入苹果产品中。

© 版权声明

相关文章

返回顶部