首页 > TAG信息列表 > LLM
日本发布超级计算机“-LLM”加速密集矩阵乘法库
日本研究人员利用超级计算机Fugaku发布了Fugaku-LLM,这是一个具有130亿个参数的大型语言模型。通过优化性能和加速通信,Fugaku-LLM在日本MT-
利兹大学法学院为跨专业申请者推荐的专业之一
利兹大学,位于英国的历史文化名城利兹,是罗素大学集团的成员之一,以其卓越的学术成就和高质量的教学水平而闻名于世。在法律领域,利兹大学法学院拥有优秀的师资力量和丰富的教学资源
日本发布Arm架构超算“富岳”上训练计划
IT之家5月11日消息,由多方企业和机构组成的日本联合研究团队昨日发布了Fugaku-LLM大模型。该模型的最大特色就是其是在Arm架构超算“富岳”上训练的。Fugaku-
人工智能领域的产研进展,开源项目和观点汇总
LLM(大型语言模型)、KG(知识图谱)和RAG(检索增强生成)是当前人工智能领域的热点技术。结合这些技术的产研进展,开源项目和观点,可以总结如
世界女排联赛澳门站:中国女排 3-1 逆转荷兰,朱婷回归引热议
允中 发自 凹非寺量子位 | 公众号 QbitAIChatGPT爆火,为何大模型却依然没有得到广泛的应用?原因无它,受制于性能和成本。最近
检索增强生成框架:解决大语言模型幻觉与知识受限问题的关键
大语言模型(LLM)虽然功能强大,但容易出现幻觉。此外,它们受限于其训练语料库中包含的知识,因此无法回答有关近期事件或公开受限信息的查询。为了解决上述问题
Yandex开源LLM训练工具节省高达20%的GPU 资源
2024年6月11日,莫斯科——跨国科技公司Yandex最近推出了YaFSDP,这是一种用于训练大型语言模型(LLM) 的开源方法。YaFSDP是目前最有效的公开可用工具
惊!手机竟能流畅运行 470 亿大模型,上交大发布 LLM 手机推理框架,提速 29 倍
手机流畅运行470亿大模型:上交大发布LLM手机推理框架,提速29倍,推理,手机,异构,大模型,神经元,上交大
LLM 消除矩阵乘法效果惊人:10 亿参数在 FPGA 上接近大脑功耗
机器之心报道 机器之心编辑部 让语言模型「轻装上阵」。 一直以来,矩阵乘法(MatMul)稳居神经网络操作的主导地位,其中很大原因归结为 GPU 专门针对 Ma
苹果公司在生成式人工智能方面的计划及面临的限制
iPhone 16系列将配备8GB内存 但分析师认为这会让LLM的能力受到限制,内存,苹果,安卓,郭明錤,分析师,apple,iphone
基于 Transformer 的自回归语言模型中生成令牌成本高的解决方案
Block Transformer:通过全局到局部的语言建模加速LLM推理,令牌,解码器,上下文,语言建模,block,transformer
LoRA:大型语言模型的低阶适配,微调模型的热门方法
大多数人都知道,训练这些模型是非常昂贵的,需要大量的资本投资;所以,看到我们可以通过采用现有的模型并用自己的数据对模型进行微调,从而创建一个具有自己特色的模型
Django 框架创始人:LLM 本质上是无状态函数,并非真正有记忆
ChatGPT和Gemini等语言模型在对话过程中似乎能够记住之前的对话内容,但实际上它们是无状态函数。通过提供上下文作为提示,模型才能“记忆”之前的对话。然而
IBM 推出突破性 LLM 基准测试方法,成本降低 99%,加速算法迭代与创新
巨头动态1.【IBM推出突破性LLM基准测试方法,成本降低99%】IBM研究实验室发布了一项颠覆性的LLM基准测试方法,该方法能显著降低评估LLM性能的计算成本,最高可达99%。
IBM 研究发布突破性 LLM 基准测试方法,计算成本降低 99%
中文科技资讯精选摘要:IBM 研究发布了一项突破性的 LLM(大型语言模型)基准测试方法,承诺将计算成本降低高达99%。
IBM 研究推出创新 LLM 基准测试方法,计算成本降低 99%
IBM研究发布了一项突破性的LLM基准测试方法,承诺将计算成本降低高达99%。传统的基准测试,如斯坦福的HELM,需要耗费超过一天的时间,并且成本高达1万美元,这对开发人员和
大语言模型的母语究竟是什么?探究其运行机制
大语言模型的「母语」是什么?我们的第一反应很可能是:英语。但事实果真如此吗?尤其是对于能够听说读写多种语言的 LLM 来说。对此
Django 框架创始人观点:LLM 看似有记忆,实则为无状态函数
Django框架的创始人之一、著名开发者Simon Willison最近发表了一篇博客文章,核心观点是——虽然很多LLM看起来有记忆,但本质上是无状态函数。
热门文章