站长之家(ChinaZ.com) 1月31日消息:Mistral AI 和 Allen 人工智能研究所今天发布了新的大型语言模型(LLM),它们声称这些模型在各自类别中属于最先进的。
Mistral 的模型被称为 Mistral Small 3,而 Allen 人工智能研究所(通常简称 Ai2)发布的则是 Tülu 3 405B。这两款模型都可以在开源许可下使用。
Mistral Small 3 包含 240 亿个参数,远少于市场上最先进的 LLM,这使得它在启用量化后足够小,可以在某些 MacBook 上运行。量化是一种调整模型的技术,旨在在降低硬件资源需求的同时,减少一些输出质量的损失。
在一次内部评估中,Mistral 将 Mistral Small 3 与 meta Platforms Inc. 发布的开源 LLM Llama 3.3 70B Instruct 进行了对比,后者的参数量是前者的三倍多。Mistral Small 3 提供了与 Llama 3.3 70B 类似的输出质量,但响应速度显著更快。在另一项测试中,这款新模型比 OpenAI 的 GPT-4o mini 提供了更高的输出质量和更低的延迟。
开发人员通常通过创建一个基础模型来构建 LLM,然后使用多种不同的训练方法来细化其输出质量。在构建 Mistral Small 3 时,该公司开发了基础模型,但跳过了后续的细化过程。这使得用户可以根据项目需求自行微调 Mistral Small 3。
该公司预计开发人员将会把这款 LLM 应用于各种任务,特别是在需要低延迟执行外部应用程序任务的 AI 自动化工具中。该公司表示,其一些客户还在机器人技术、金融服务和制造业等行业特定用例中使用 Mistral Small 3。
「Mistral Small 3 是一款预训练和指令式模型,专为应对『80%』的生成式 AI 任务而设计——这些任务需要强大的语言能力和指令跟随性能,并且延迟非常低,」Mistral 的研究人员在博客中写道。
今天 Mistral Small 3 的发布恰逢 Ai2(一个非营利的 AI 研究机构)发布新的 LLM。Tülu 3 405B 是 meta 去年 6 月发布的开源 Llama 3.1 405B 模型的定制版。在 Ai2 的测试中,Tülu 3 405B 在多个基准测试中超过了原始的 Llama 模型。
该研究小组使用一种它们在 11 月首次详细说明的开发流程创建了这个 LLM。该工作流结合了多种 LLM 训练方法,其中包括 Ai2 自家发明的一种方法。
该工作流的第一步是监督微调。这是一种训练方法,通过向 LLM 提供示例提示和相应的答案,帮助它学习如何响应用户查询。接下来,Ai2 使用了另一种名为 DPO 的训练技术,将 Tülu 3 405B 的输出与一组用户偏好进行对齐。
Ai2 还使用一种名为 RLVR 的内部开发的训练方法进一步优化了模型的能力。RLVR 是强化学习的一种变体,强化学习是广泛应用的 AI 训练技术。Ai2 表示,RLVR 可以使 AI 模型在解决数学问题等任务中表现得更好。
Tülu 3 405B 代表了「完全开放的后训练方法首次应用于最大开放权重模型」,Ai2 的研究人员在博客中写道。「通过这一发布,我们展示了我们在 405B 参数规模上应用后训练方法的可扩展性和有效性。」
0 条