微软将中国AI团队“打包出国”成舆论热点

aixo 2024-05-18 11:45:30
大模型 2024-05-18 11:45:30

相对于 AI 初创公司,科技巨头微软则开始建立与中国 AI 人才的“楚河汉界”。

5月15日,多位人士在社交平台上爆料称,微软在中国的部分员工集体收到公司邮件,询问是否愿意搬迁至其他地区工作,选择地包括美国、澳大利亚、爱尔兰等国家。涉及员工主要在微软从事AI研究。微软将中国AI团队“打包出国”成为舆论热点。

微软的中国云计算和AI团队参与了公司核心产品的全球研发。一位知情人士说,被要求考虑调离的是微软云计算部门数千名工程师中的一部分人。该知情人士还说,如果这些员工选择不调离中国,也可以继续在中国工作。

另一位知情人士说,微软是在本周早些时候提出人员重新安置提议的。

实际上,此前钛媒体App曾报道,相对于微软向包括马来西亚、泰国、印度尼西亚等东南亚国家投资超过39亿美元(约合人民币282.37亿元),其对于中国的态度“耐人寻味”。

随着中美在引领世界技术未来问题上的紧张关系加剧,微软内部,包括纳德拉和总裁布拉德·史密斯,一直在讨论如何处理微软在中国的 AI 研究情况。纽约时报直言,微软面临“一个棘手的平衡挑战”。

在此前一场关于 AI 的小组委员会听证会上,史密斯向美国参议员回应称,中国只占微软销售额的1.5%,而上一财年的总销售额为2120亿美元。

因此,1.5%的份额,加上新Bing AI 搜索无法在中国落地,使得微软“隔离”中国 AI 的意味愈加明显。

自1992年在北京设立代表处至今,微软已在中国市场落地32年。2022年微软中国30周年活动上,作为最早进入中国的外资企业之一,微软宣布将围绕人才吸纳、园区扩建、教育投入以及本土生态四方面进一步加大投入,而且在扩大招聘的基础上,微软还计划将在未来三到五年期间,对位于北京、上海及苏州的园区进行升级扩建。

此次宣布撤离的微软中国 AI 团队人员,主要来自微软亚太研发集团,而微软的亚太研发团队拥有约7000名工程师,其中大多数人都常驻中国。

公开信息称,微软亚太研发集团成立于2006年1月18日,是微软在美国之外规模最大、职能最完备的研发基地,拥有完整创新链条,职能覆盖基础研究、技术孵化、产品开发和战略合作,致力打造“开放、创新、共赢“的产业创新生态环境,在大中华区乃至整个亚太地区学术与产业界的科技创新与经济发展中发挥积极纽带作用,不断推进计算机科学领域前沿技术的发展,将最新研究成果快速转化到微软全球及中国本地的核心产品和服务当中,在赋能各行业数字化转型中发挥了积极作用。

微软亚太研发集团着眼于下一代革命性技术的研究,涉及自然用户界面、智能多媒体、人工智能、云和边缘计算、大数据与知识挖掘、计算机科学基础等,并致力将最新研究成果快速转化到面向全球及中国本地用户和开发者的核心产品和服务之中,其中包括 Azure、 365、 365、必应搜索、在线广告平台、大数据平台、 、Xbox、、,以及微软翻译、微软认知服务等。

目前在 AI 研究方面,微软已经对中国进行了强制“隔离”。

据报道,位于中国的微软亚洲研究院中,微软公司不允许中国研究者提前使用GPT-4测试版和核心技术。同时,公司也对该院在量子计算、面部识别与合成媒体方面的研究工作进行了限制。但在温哥华的分部,研究者可以自由接触关键技术,包括从事尖端研究所需的计算能力和系统。

在此前一场线下交流当中,微软员工向钛媒体App坦言,微软大中华区版的企业版本更希望覆盖那些致力于全球化、出海的中国企业,而非与本土的阿里通义、百度文心等进行竞争,并非去坚持获得批准。

“历史的教训是,只有向世界学习的国家才能成功,”史密斯在声明中表示。“安全护栏和管制至关重要,但参与仍不可或缺。”

华为大模型“人工操控”事件遭否认

华为大模型“人工操控”事件近日登上知乎热榜。

5月16日,针对网传华为大模型文生图现场展示疑似人工操控的消息,华为昇腾社区回应称:“并非调取预置图片,本次展示的均为真实代码,也将在昇腾社区上开放。”

事情的起因是,6天前在北京海淀举行的鲲鹏昇腾开发者大会的一场面向技术讨论会上,华为演示了文生图mxRAG SDK功能,即如何通过十几行代码即可完成RAG应用开发。

据网传视频及聊天截图,华为在演示文生图功能时,按下Crtl-C中断,显示对应代码为time.sleep(6),有网友解释代码的意思是:暂停6秒,然后读取本地的一张图片展示出来。

模型大小和参数量_大模型_模型大师

模型大小和参数量_模型大师_大模型

因此,华为被质疑其大模型技术能力。

对此,昇腾社区回应称,现场图片为实时生成,调用的是开源大模型。代码中有time.sleep(6)等表述,是命令等待读取外部开源大模型实时生成的图片,并非调取预置图片。本次展示的均为真实代码,也将在昇腾社区上开放,欢迎开发者使用并提出宝贵建议。

据悉,所谓mxRAG,简单理解为检索增强生成功能——检索()、增强()和生成()。这一能力是目前开发 AI 大模型所需的重要能力之一。

有分析认为,尽管昇腾社区暂未公布源代码,开发者目前仅能通过网传代码截图进行经验判断和讨论,但知乎多位开发者用户表示,文生图过程理论上“完全没必要sleep(6)”。而且按照正常理解来说,这不需要这串代码,如果是延迟6秒生成,现场演示中回馈是0秒生成,即便是现场网络特别好、性能超越英伟达A100算力,也不会出现0秒生成 AI 图片情况。

近日一场公开活动上,华为公司常务董事、华为云计算技术有限公司CEO张平安透露,AI 大模型场景中,华为昇腾服务器性能可以做到1.1倍的英伟达 A100,1.2倍的英伟达A800,国产算力性能远高于英伟达,并且支持断点续训等功能。

营收增速1%、token降至0,AI 大模型不赚钱

相对于美国 AI 的新局势,当前,中国的 AI 大模型行业正形成“卷”价格大战。

5月15日,字节跳动旗下火山引擎公布其豆包主力模型token(一串字符或符号)价格,称在企业市场的定价0.0008元/千,即0.8厘价格可处理1500多个汉字,较行业平均价格便宜99.3%。

更早之前,智谱大模型开放平台()上线新的价格体系,入门级产品 GLM-3 Turbo 模型调用价格下调80%,从5元/百万降至1元/百万,1元可以购买100万。面壁智能方面针对大模型降价趋势表示,自身产品小钢炮一直0元购,降无可降。

火山引擎总裁谭待表示,降价的主要原因在于,今年行业大模型能力大幅提升,做应用这件事变得很重要,也就是一定要将生态做繁荣。谭待称目前接触的很多客户都在做大模型方面的尝试,但创新这件事的风险度很高,尤其在AI领域,因此需要将成本降低,拉动大家更广泛地使用起来。从这个角度来讲,不论是大企业还是个人,都需要更低成本、更高质量的大模型。

不过,这种大模型token价格下降,直接导致 AI 公司收入增速放缓,AI 大模型变得“不值钱”了。

5月16日,百度集团发布的最新财报显示,2024年一季度,百度营收为315.13亿元,同比增长放缓至1%,这一增速远不及上年同期的10%,较去年四季度6%的增速亦有所放缓。其中,生成式AI进贡献6.9%云收入。

实际上,出门问问创始人、董事长李志飞最近在朋友圈发的几段话,我认为值得深思。

李志飞前段时间表示,前沿科技公司做了好几年、亏了很多钱,还是离赚钱遥遥无期,而不少非前沿科技公司的CEO都洋溢着“赚钱”的光芒。

模型大师_模型大小和参数量_大模型

当前一个残酷的事实是,算力需求钱,找 AI 人才需要资金,训练和推理模型需要资金,追上GPT-4也需要资金。但与此同时,C端大模型免费应用后、商业化遥遥无期,即便是B端的落地,也面临“狼多肉少”、激烈竞争的市场。

那么为什么会存在这种现象?钛媒体AGI认为主要有三点:

1、大模型“三高”:算力成本高、研发高、人才成本高。当前,AI 模型的应用更强调生产力工具属性,这种软件工具的商业化形式单一、“造血”能力太差。

2、大家频繁“卷”token价格,谁的价格更低、服务体验更好,下游的场景应用企业将选择其,甚至可以和云服务“打包”采购,而不再会选择非性价比的方案,行业的集中度会越来越高,也就形成“老大吃肉、老二喝汤、老三没水喝”这种情况。

3、前沿技术是一个不断奔跑的行业,无论是英伟达、AMD,还是、微软、谷歌,所有人都在不断追逐技术创新,因此研发成本会不断提升,而中国的模式是“你开源、我魔改创新”,基础技术研究较差、行业没有形成产、学、研体系。

“贫穷限制想象”,摩尔线程创始人张建中表示,AI创业公司好不容易融到几十个亿,或者10个亿,就已经很多了,但实际上,大部分企业是有心有余而力不足,再加上你还买不到算力卡,那就更加难做 AI 大模型。

如果再加上中国 AI 人才成本:缺口大、价格“贵”,硕士毕业年薪可达70万元。

“目前高端人才主要集中在国外,国内大模型领域的人才比较少,尤其是有实践经验的人特别难找,顶尖人才的年薪可以达到几百万元。”AI上市公司云天励飞副总裁罗忆曾表示。

随着成本越来越高,大模型正逐渐成为一场互联网大厂的游戏。

百度创始人、CEO李彦宏曾表示,外界一些做模型的创业公司讲的所谓的“双轮驱动”不是一个好的模式。既做模型又做应用,势必会分散精力。创业公司的精力和资源都是有限的,同时做两件事情和只做一件事情哪个成功率更高是不言自明的。在任何情况下我们都非常讲专注力,“力出一孔”,当资源有限的时候更应该专注,而不是去搞所谓的“双轮驱动”。

“当然更根本的就是文心的功能是最强的,性价比是最好的,我们会持续不断地投入,有了这一点,所有其他的东西才能够成立。”李彦宏依然认为百度才是大模型领域的No.1。

对于降价这件事,谭待强调,To B业务通过亏损换收入是不可持续的,所以火山不走这条路,更多考虑的是让更多人来使用,“大的使用量才能打磨出好模型,也能大幅降低模型推理的单位成本。”谭待表示,通过技术手段将价格打下来后,行业便会踊跃进来尝试这件事。

百度后来对外表示:使用大模型不应该只看价格,更要看综合效果。

小冰公司CEO李笛曾表示,现在的 AI 技术创新正处于震荡期,部分大模型产品处在无法证伪的状态,行业适合的商业模式还未建立,商业化面临低价恶性竞争、降低成本却无法产生高利润价值等挑战,陷入了一种“怪圈”。

李笛向钛媒体App强调,“我们反‘内卷’、反‘开源’,盲目开源会把 AI 领域弄得很乱,很容易让(AI)行业‘劣币驱逐良币’,这不是一个良性的业态。过去一段时间我一直认为,2024年第一季度基本上(大模型)行业格局将尘埃落定了,100多个大模型会变得没有差异化。”

(本文首发于钛媒体App,作者|林志佳,编辑|胡润峰)

模型大小和参数量_模型大师_大模型

更多精彩内容,关注钛媒体微信号(ID:),或者下载钛媒体App