英伟达联合 Mistral 发布小杯模型 Mistral NeMo,性能优越且支持多语言

aixo 2024-07-19 11:41:34
算力 2024-07-19 11:41:34

NVIDIA_nvidia控制面板_nvidiaagx

智东西

编译 陈骏达

编辑

智东西7月19日消息,昨日晚间,就在推出GPT-4o mini模型不久后,英伟达和法国明星AI独角兽也联合发布了名为 NeMo的小杯模型,旨在提供性能优越、部署便捷、安全性高的企业级AI功能。

NeMo的参数大小为120亿,具备128k的超大上下文窗口,具备同量级开源模型中最先进的推理、世界知识和代码能力。这一模型对包括中文在内的多种语言进行了优化,为全球企业应用这一模型提供了便利。

英伟达深度参与了这一模型的开发工作。 NeMo的训练算力由英伟达提供,被纳入了英伟达的推理微服务NIM。因此, NeMo在部署于英伟达设备上时能获得性能优化,只需1块英伟达RTX 4500 GPU就可全本地运行。NIM也让 NeMo模型具有较高的安全性,这对企业应用来说是不可或缺的。

此外,这一模型在发布时遵循了 2.0许可证的要求,这是一种开源许可证,允许用户在保留版权声明的前提下自由使用、修改和分发代码,对商业用途十分友好。

一、同量级开源模型中表现最佳,还擅长11门语言

此先,谷歌和母公司Meta都曾发布过类似的小杯模型,但这些模型的上下文窗口仅有8k,这意味着它们在进行较复杂任务时有一定难度。而 NeMo的上下文窗口大小达到了128k,这与昨天晚间发布的GPT-4o mini是一样的。

根据提供的测试结果, NeMo在7个基准测试中都领先于谷歌和Meta的小杯模型。 NeMo在开卷考测试和常识测试这2个基准测试上有较大的优势,这与 NeMo较大的上下文窗口和120亿的参数有直接的关系。

nvidiaagx_NVIDIA_nvidia控制面板

▲ NeMo 12B与Gemma 2 9B和Llama 3 8B在基准测试中的表现(图源:)

此外, NeMo从设计之初就瞄准了全球市场。这一模型在英语、法语、德语、西班牙语、意大利语、葡萄牙语、中文、日语、韩语、阿拉伯语和印地语方面的表现较为突出,共支持100多门语言。

根据 AI提供的测试结果, NeMo在多门语言上的表现都比Llama 3 8B高出10%左右。

nvidia控制面板_NVIDIA_nvidiaagx

▲ NeMo与 8B在多语言基准测试中的表现

在处理非英语文本时, NeMo的效益有显著提升。这一模型使用了一个新的分词器,经过训练后能处理超过100种语言,相比之前模型使用的分词器,在压缩源代码和中文、法语、德语时的效率提高了约30%。在压缩韩语和阿拉伯语时,效率分别提高了2倍和3倍。与Llama 3的分词器相比,在大约85%的语言中都表现出更高的文本压缩能力。

NeMo经历了高级微调和优化,相比 7B,它在以下4个方面表现更好:指令执行、逻辑推理、连续对话处理及代码生成。

二、与英伟达深度合作开发,专为企业客户优化

英伟达深度参与了 NeMo模型的开发。NeMo这一名字其实就来自于英伟达为企业AI平台 NeMo,这一模型也是在英伟达的NeMo平台上云训练的。英伟达称 AI在训练数据方面具有很多专业技能,而英伟达在软硬件优化方面经验丰富,二者的结合让这一模型能在各种丰富的应用场景中提供不错的表现。

nvidiaagx_NVIDIA_nvidia控制面板

▲英伟达面向企业的AI平台NeMo(图源:英伟达)

NeMo经过量化意识训练,能在处理低精度(如8位浮点数,FP8)表示的数据时仍然能保持高性能。这种方法确保模型在训练过程中就适应了低精度计算,从而在实际使用时可以直接使用低精度进行推理。

FP8是英伟达近期主推的一种新技术,对FP8的支持带来了更大的数据吞吐量和更高的计算性能。虽然数据精度有所降低,但是结合其它技术和工程手段,模型仍然可以提供和更高精度数据类型相媲美的结果,而且在性能和能效上有较大的改善。这对有意部署AI模型的中小型企业来说十分友好。

NeMo被纳入了英伟达的推理微服务NIM中,能在诸多使用英伟达设备的计算设备上提供性能优化的推理,支持成本极低的本地化部署,只需要1块英伟达 RTX 4090或者英伟达RTX 4500 GPU就可全本地运行。NIM还提供了严格的验证流程与企业级的安全与支持,这也回应了不少企业对安全性的需求。

具备这些特性的 NeMo可以在云端、数据中心或者本地工作站上运行。不过,根据英伟达应用深度学习研究副总裁布莱恩·卡坦扎罗(Bryan )接受美国媒体采访时的表述,这一模型虽然对计算性能的要求有显著降低,但尚未降低到能在智能手机上运行的程度。英伟达对这一模型的预期用例是笔记本电脑或台式电脑。

此外, NeMo经过了专门的函数调用训练,这一特点与128K大型上下文窗口结合后,提升了模型在代码开发上的实用性。而开源发布则对企业商用这一模型提供了很大的便利。

结语:小杯模型战火愈演愈烈,英伟达联手开辟更大市场

经历昨晚的两个重大发布后,海外几乎所有AI领域的主要玩家都发布了他们的小杯模型。英伟达和在训练本次的 NeMo模型时,专门面向企业应用,尤其是中小企业的应用进行了针对性的优化,这也显示出这一市场的巨大潜力。

英伟达作为当今AI浪潮中最大受益者之一,过去的主要收益来源都仰仗云端业务。本次他们通过推出面向企业的高能效低成本AI解决方案,或许能给企业环境中的AI应用带来新的可能性。让AI更接近最终用户的竞赛,正在不断升温。

来源: AI、英伟达、