首页 > TAG信息列表 > LLM
IBM 研究推出创新 LLM 基准测试方法,计算成本降低 99%
IBM研究发布了一项突破性的LLM基准测试方法,承诺将计算成本降低高达99%。传统的基准测试,如斯坦福的HELM,需要耗费超过一天的时间,并且成本高达1万美元,这对开发人员和
大模型回答如何更可靠?MIT设计出「共识博弈」
大模型回答如何更可靠?MIT研究团队设计出「共识博弈」,将数学家常用的博弈论引入LLM改进中。没想到,LLaMA-7B的表现,击败了LLaMA-65B,甚至与PaLM-
日本开发大规模语言模型“-LLM”正式发布
科技日报讯东京工业大学、日本理化学研究所及富士通公司等近日宣布,利用超级计算机“富岳”,他们开发的大规模语言模型“Fugaku-LLM”正式发布。“Fugaku-
自适应键值缓存压缩方法减小了LLM生成推理内存占用
中文科技资讯精选摘要:研究人员来自伊利诺伊大学厄巴纳 - 香槟分校和微软提出了一种名为 FastGen 的高效技术,通过使用轻量级模型分析和自适应键值缓来提高 LLM 的推理效率
日本发布超级计算机“-LLM”加速密集矩阵乘法库
日本研究人员利用超级计算机Fugaku发布了Fugaku-LLM,这是一个具有130亿个参数的大型语言模型。通过优化性能和加速通信,Fugaku-LLM在日本MT-
利兹大学法学院为跨专业申请者推荐的专业之一
利兹大学,位于英国的历史文化名城利兹,是罗素大学集团的成员之一,以其卓越的学术成就和高质量的教学水平而闻名于世。在法律领域,利兹大学法学院拥有优秀的师资力量和丰富的教学资源
日本发布Arm架构超算“富岳”上训练计划
IT之家5月11日消息,由多方企业和机构组成的日本联合研究团队昨日发布了Fugaku-LLM大模型。该模型的最大特色就是其是在Arm架构超算“富岳”上训练的。Fugaku-
人工智能领域的产研进展,开源项目和观点汇总
LLM(大型语言模型)、KG(知识图谱)和RAG(检索增强生成)是当前人工智能领域的热点技术。结合这些技术的产研进展,开源项目和观点,可以总结如
欧洲科学院院士联合上海人工智能实验室提出多智能体规范性框架CRSEC
导语 如何才能让智能体具备遵守社会规范的能力,并让AI社会中自发涌现出社会规范?近日,欧洲科学院院士、西北工业大学王震教授团队联合上海人工智能实验室胡舒悦研究员
西交微软北大提出信息密集型训练大法
中文科技资讯精选摘要:近日,西交微软北大联合提出信息密集型训练大法,使用纯数据驱动的方式,矫正LLM训练过程产生的偏见,在一定程度上治疗了大语言模型丢失中间信息的问题。
大语言模型的母语究竟是什么?探究其运行机制
大语言模型的「母语」是什么?我们的第一反应很可能是:英语。但事实果真如此吗?尤其是对于能够听说读写多种语言的 LLM 来说。对此
Django 框架创始人观点:LLM 看似有记忆,实则为无状态函数
Django框架的创始人之一、著名开发者Simon Willison最近发表了一篇博客文章,核心观点是——虽然很多LLM看起来有记忆,但本质上是无状态函数。
检索增强生成框架:解决大语言模型幻觉与知识受限问题的关键
大语言模型(LLM)虽然功能强大,但容易出现幻觉。此外,它们受限于其训练语料库中包含的知识,因此无法回答有关近期事件或公开受限信息的查询。为了解决上述问题
世界女排联赛澳门站:中国女排 3-1 逆转荷兰,朱婷回归引热议
允中 发自 凹非寺量子位 | 公众号 QbitAIChatGPT爆火,为何大模型却依然没有得到广泛的应用?原因无它,受制于性能和成本。最近
SimPO——一种简单却有效的离线偏好优化算法
机器之心报道 编辑:Panda 为了将大型语言模型(LLM)与人类的价值和意图对齐,学习人类反馈至关重要,这能确保它们是有用的、诚实的和无害的。在对齐 LLM
大语言模型是如何应用于蛋白质组学的?
新智元报道 编辑:庸庸 乔杨 【新智元导读】科学家们把Transformer模型应用到蛋白质序列数据中,试图在蛋白质组学领域复制LLM的成功。本篇文章能够带你了
2024年哪个月发布,爆料人掐指一算,可能在11月
原创 新智元 新智元 新智元报道 编辑:桃子 好困 【新智元导读】全世界的目标再次聚焦在巴黎科技活动上的OpenAI。这次,开发者体验负责人带来了更多GPT-4
热门文章