Meta 发布最新大型语言模型 Llama 3.2,具备视觉和文本理解功能
社交媒体巨头Meta(META.US)周三在Meta 2024大会上发布最新的大型语言模型Llama 3.2,其中包括90B和11B参数的视觉大语言模型,以及1B和3B参数的轻量级纯文本模型,后者适用于边缘和移动设备。
据悉,Llama 3.2 1B和3B模型仅支持文本输入,支持128K的上下文长度。这些模型可以执行设备上的用例,如摘要、指令跟踪和本地重写任务。
这些模型支持高通(QCOM.US)和联发科硬件,并针对Arm(ARM.US)处理器进行了优化。
Llama 3.2 11B和90B模型支持文本及图像输入,具有图像和视觉理解功能。
Llama 3.2模型旨在成为迄今为止最以开发人员为中心的模型,并帮助开发人员构建设备代理。
Meta表示:“这些模型使开发人员能够构建个性化的设备代理应用程序,这些应用程序具有很强的隐私性,数据永远不会离开设备。”“例如,这样的应用程序可以帮助总结最近收到的10条消息,提取操作项,并利用工具调用直接发送后续会议的日历邀请。”
由于处理是在本地完成的,因此设备上的模型可以实现更快的响应,并且有助于确保隐私,因为信息不必迁移到云端。
Meta 并不是第一家推出设备内置人工智能模型的公司。谷歌( GOOG.US ,GOOGL.US) 最新的Pixel 9 Pro智能手机搭载了 AI。苹果 (AAPL.US) 的 16配备了苹果智能系统(Apple ),将在下个月iOS 18.1发布后提供设备内置AI。
另外,Meta还推出了第一副增强现实(AR)眼镜Orion和最新款虚拟现实(VR)头显设备Quest 3S。
上述消息推动Meta股价一度涨超2%至575.77美元,创下历史新高。