击败ChatGPT 少即是多!10亿参数 小巨人

新智元报道

编辑:耳朵 庸庸

【新智元导读】 只有10亿参数的xLAM-1B在特定任务中击败了LLM霸主:OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。上个月刚发布的苹果智能模型只有30亿参数,就连奥特曼都表示,我们正处于大模型时代的末期。那么,小语言模型(SLM)会是AI的未来吗?

大语言模型的Scaling Law被一些人视为「金科玉律」,但另一些人却不以为意。前阵子,香港大学马毅教授就公开宣称,「如果相信只靠Scaling Law就能实现AGI,你该改行了」。

确实有很多模型不是单纯靠资源的堆砌,而是凭借创新能力脱颖而出。验证了一条不同于Scaling Law的道路——少即是多。

xLAM-1B就是如此,只有10亿参数,但是在功能调用任务中表现优于更大规模的模型,包括OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。

它也因此被称为「Tiny Giant」——小巨人!

凭借远超预期的卓越性能,这个小模型或许会改变端侧AI的格局。

西方将这种以弱胜强的故事称之为「David-versus-Goliath」(大卫迎战歌利亚),这源于一个圣经故事——大卫与巨人歌利亚作战时还是个孩子,他不像歌利亚那样穿着盔甲,他捡了一块石头,放在投石器里。把石头甩出去,击中歌利亚的额头,击倒了这个巨人。

科技媒体Venturebeat在报道这个小模型时,就将之比喻为人工智能领域的「大卫迎战歌利亚」时刻。

我们最关心的一点是,xLAM-1B是如何做到的?

简言之,这得益于在数据处理上的创新方法。其背后团队开发了APIGen,这是一套自动化流程,可以生成高质量、多样化且可验证的数据集,用于训练AI模型在函数调用任务中的表现。

论文地址:https://arxiv.org/pdf/2406.18518

小而强大:高效AI的力量

xLAM-1B最令人欣喜的在于,它不占地儿。因为模型规模小,所以适合设备上的应用。这对企业人工智能的影响是巨大的,它有可能使AI助手功能更强大、反应更灵敏,并且能在计算资源有限的智能手机或其他设备上本地运行。

训练数据的质量和多样性是支撑xLAM-1B强大性能的关键。APIGen自动数据生成流水线利用21个不同类别的3673个可执行API,对每个数据点进行了严格的三阶段验证:格式检查、实际函数执行和语义验证。

各种AI模型在不同评估指标下的性能对比图。GPT-4-0125-Preview在总体准确性方面遥遥领先,而xLAM-7B等较小的模型在特定任务中表现出了竞争力,这对大模型总是表现更好的说法提出了挑战

这种方法代表了人工智能发展战略的重大转变。

虽然许多公司都在竞相建立越来越大的模型,但xLAM-1B所使用的方法表明,更智能的数据处理可以带来更高效、更有效的人工智能系统。

通过关注数据质量而非模型大小,xLAM-1B提供了一个很好的例子,它可以用比竞争对手少得多的参数执行复杂的任务。

颠覆AI现状:从LLM到SLM

这一突破的潜在影响绝不仅限于xLAM-1B这个模型的推出。

通过证明更小、更高效的模型可以与更大的模型竞争,xLAM-1B正在挑战人工智能行业的主流观点,作为小语言模型(SLM)的新军,和一统江湖的大语言模型(LLM)开战。

科技公司一直在争相建立最大的大语言模型。例如,今年4月,Meta公司发布了拥有4000亿参数的Llama 3,它所包含的参数数量是2022年OpenAI最初的ChatGPT模型的两倍。

尽管尚未得到证实,但GPT-4估计拥有约1.8万亿个参数。

不过,在过去几个月里,包括苹果和微软在内的一些最大的科技公司都推出了小语言模型。

这些模型的大小仅为LLM对应模型的一小部分,但在许多基准测试中,它们在文本生成方面可以与LLM相媲美,甚至更胜一筹。

6月10日,在苹果公司的全球开发者大会上, 发布了拥有约30亿参数的苹果智能模型 。

4月底,微软发布了其 Phi-3 SLM系列 ,拥有38亿到140亿个参数。

在一系列测试中,微软最小的模型Phi-3-mini与OpenAI的GPT-3.5(1750亿个参数)不相上下,其表现也优于谷歌的Gemma(70亿个参数)。

测试通过向模型提出有关数学、哲学、法律等方面的问题,评估了模型对语言的理解能力。

更有趣的是,拥有70亿个参数的微软Phi-3-small在许多基准测试中的表现都明显优于GPT-3.5。

波士顿东北大学研究语言模型Aaron Müller并不惊讶SLM在某些功能上可以与LLM相提并论。

Müller说,「这是因为一味增加参数数量并不是提高模型性能的唯一方法,在更高质量的数据上进行训练也能产生类似的结果。」

例如,微软的Phi模型是在经过微调的「教科书质量」数据上训练出来的,这些数据的风格更加一致,比LLM通常依赖的来自互联网的高度多样化文本更容易学习。

同样,苹果公司也在高质量、更复杂的数据集上训练SLM。

Müller表示,更重要的是,SLM可以使语言模型的使用平民化。

迄今为止,人工智能的开发一直集中在几家有能力部署高端基础设施的大公司手中,而其他规模较小的公司和实验室则不得不支付高昂的费用来获得授权。

由于SLM可以在价格更低廉的硬件上轻松训练,因此资源有限的人更容易获得SLM。

SLM的兴起正值LLM之间的性能差距迅速缩小,科技公司希望能在Scaling Law之外,探索其他性能升级途径。

在4月份的一次活动中,OpenAI 的首席执行官Altman表示,他相信我们正处于大模型时代的末期。「我们将以其他方式让模型变得更好。」

也就是说,经过精心策划的SLM向构建可解释性人工智能更近了一步。

对于像苏黎世联邦理工学院计算机科学研究员Alex Warstadt这样的研究人员来说,SLM还能为一个长期存在的科学问题提供新的见解:儿童是如何用很少的文字数据就学会语言和思维的。

Warstadt和包括东北大学Müller在内的一批研究人员一起组织了BabyLM挑战赛,参赛者要在小数据上优化语言模型训练。

SLM不仅有可能揭开人类认知的新秘密,还有助于改进生成式人工智能。

在儿童13岁时,他们已经接触了约1亿个单词,在语言方面比聊天机器人更胜一筹,但他们只能获得0.01%的数据。

Warstadt说,虽然没人知道是什么让人类如此高效,但「在小规模上进行高效的类人学习,当扩展到LLM规模时,可能会带来巨大的改进」。

重塑AI的未来:从云到设备

xLAM-1B展现出的端侧AI的发展潜力,很可能标志着人工智能领域的重大转变——挑战「模型越大越好」的观念,让人工智能在消耗有限资源的条件下也能持续生长。

目前,由于所涉及模型的规模和复杂性,许多先进的人工智能功能都依赖于云计算。

如果像xLAM-1B这样的较小模型也能提供类似的功能,就能让更强大的人工智能助手直接在用户的设备上运行,从而提高响应速度,并解决与基于云的人工智能相关的隐私问题。

随着边缘计算和物联网设备的激增,对更强大的设备上人工智能功能的需求也将激增。

xLAM-1B的成功可能会催生新一轮的人工智能开发浪潮,其重点是创建为特定任务量身定制的超高效模型,而不是「样样通」的庞然大物。

这可能会带来一个更加 分布式的人工智能生态系统 ,在这个生态系统中,专业模型在设备网络中协同工作,可能会提供更强大、反应更快、更能保护隐私的人工智能服务。

这一发展还能 使人工智能能力民主化 ,让较小的公司和开发人员无需大量计算资源就能创建复杂的人工智能应用。

此外,它还可以 减少人工智能碳足迹 ,因为较小的模型在训练和运行时所需的能源要少得多。

xLAM-1B给业界带来的冲击有很多,但有一点是显而易见的:在人工智能的世界里,大卫刚刚证明了他不仅可以与歌利亚竞争,还有可能将其淘汰。人工智能的未来可能不在被巨头所操控的云端,而是在你自己手中。

参考资料:

https://venturebeat.com/ai/salesforce-proves-less-is-more-xlam-1b-tiny-giant-beats-bigger-ai-models/

https://x.com/SFResearch/status/1807811770267971984?t=j_LOjgVPy41ZpjwkoXmRiQ&s=19


AI大模型扎堆上线,你觉得谁能强势出圈?

撰文 / 涂彦平编辑 / 黄大路设计 / 赵昊然

ChatGPT在这个春天霸占了中文互联网,普通人面对它多生出兴奋和焦虑交织的复杂情绪,而大公司不甘落后,纷纷宣布自己也在做类似的AI大模型。

继3月16日网络发布文心一言之后,4月7日,阿里云官宣大模型通义千问开始邀请测试。

4月8日,在人工智能大模型技术高峰论坛上,华为云人工智能领域首席科学家田奇分享了盘古大模型的进展及应用。 他透露,华为盘古大模型正在推动人工智能开发从“作坊式”到“工业化”升级。

接下来,有多场大模型相关发布会扎堆举办。

4月10日,商汤“日日新SenseNova”大模型体系问世;4月11日,毫末智行自动驾驶生成式大模型DriveGPT雪湖·海若发布;由昆仑万维和奇点智源合作研发的天工大模型3.5发布在即,并将于4月17日启动邀请测试;5月6日,科大讯飞“1+N认知智能大模型”即将发布……

互联网巨头、人工智能公司、智能硬件公司、自动驾驶公司等各方力量,都积极参与到大模型这一场盛宴中来。

行业监管也迅速出手。 4月11日,国家网信办发布通知,就《生成式人工智能服务管理办法(征求意见稿)》面向社会公开征求意见。

根据计算机科学家、自然语言模型专家吴军的说法,ChatGPT背后是一个叫做语言模型的数学模型在发挥作用,这项语言模型技术早在1972年就已经有了,是由他的导师弗莱德里克·贾里尼克(Fred Jelinek)在IBM期间带领团队研发出来的。

只是到了今天,由于算力不断提升,语言模型已经从最初基于概率预测的模型发展到基于Transformer架构的预训练语言模型,并逐步走向大模型的时代。

复旦大学计算机学院教授、MOSS系统负责人邱锡鹏曾这样描述大模型的能力飞跃:“当模型规模较小时,模型的性能和参数大致符合比例定律,即模型的性能提升和参数增长基本呈线性关系。 然而,当 GPT-3/ChatGPT 这种千亿级别的大规模模型被提出后,人们发现其可以打破比例定律,实现模型能力质的飞跃。 这些能力也被称为大模型的‘涌现能力’(如理解人类指令等)。 ”

每当有革命性的技术诞生,无一不是由其在具体行业的商用化应用来实质性地推动行业进步。 作为连接技术生态和商业生态的桥梁,大模型也将在很多行业应用落地。

只是,这波来势凶猛的大模型热,究竟会催生万物生长改变万千业态,还是继区块链、元宇宙之后又一个看上去很美的泡沫?

无限想象空间?

特斯拉将Transformer大模型引入自动驾驶领域中,拉开了AI大模型在自动驾驶领域应用的开端。 大模型在自动驾驶行业的应用将提升系统的感知和决策能力,已经被视为自动驾驶能力提升的核心驱动力。

4月2日,网络正式发布网络自动驾驶云Apollo Cloud2.0。 网络智能驾驶事业群副总裁、智能网联业务总经理高果荣表示,Apollo Cloud2.0基于大模型实现了自动驾驶数据智能的搜索引擎,大模型的能力积累了自动驾驶数据智能的搜索引擎,从海量数据中能够精准找到自动驾驶面向不同场景的数据。

“在自动驾驶领域,BEV(Birds Eye View,鸟瞰视图)是当前主流的技术路线,未来可以朝着多模态、通用智能的方向发展。 ”商汤科技联合创始人、首席科学家、绝影智能汽车事业群总裁王晓刚表示。

他认为,在通用人工智能时代,输入提示词和多模态内容,就可以生成多模态的数据,更重要的是,可以用自然语言生成对任务的描述,用非常灵活的方式覆盖大量的长尾问题和开放性的任务,甚至是一些主观描述。

王晓刚举了一个例子来说明AI和AGI处理任务的不同。给定一张图片,判断是否需要减速,AI和AGI的反应有什么不一样呢?

现有的AI系统,会首先做物体检测,然后再物体框里做文字识别,最后做决策。 整个过程中每一个模块都是事先定义好的任务。

而在通用人工智能下,给定图像,人们只需要用自然语言去问问题,比如,“这个图标是什么意思?我们应该做什么?”模型本身不会发生变化,它会通过自然语言的方式给出一系列逻辑推理,最后得出结论。 比如,它会说,“前面限速30公里/小时”“前面100米是学校区域”“有小孩”“应该小心驾驶”“将车速降到30公里/小时以下”等。

王晓刚还指出,智能驾驶汽车领域有“数据飞轮”的说法,通用人工智能时代则会产生“智慧飞轮”,人和模型之间可以互动,通过人的反馈,模型能更好地理解人需要它展示什么样的能力,而去解锁更多技能。 从数据飞轮升级到智慧飞轮,可以实现人机共智。

商汤基于多模态大模型,可做到数据的感知闭环和决策闭环。 从前端自动采集高质量的数据,到利用大模型进行自动化的数据标注和产品检测,“能够几百倍地提升模型迭代的效率并降低成本”。

华为云EI服务产品部总裁尤鹏也表示,“整个数据标注是整个自动驾驶领域准确率、效率、成本最高的一部分”,这部分的效率直接影响到自动驾驶算法和驾驶等级的提升。 他透露,华为云正在做预训练标注大模型,支撑后续的自动驾驶算法的训练,可能会在几个月后会发布。

除了自动驾驶,很多行业人士相信,智能座舱也将在大模型的赋能下有着质的提升,尤其将为人机交互打开新的大门。

网络集团资深副总裁、智能驾驶事业群组总裁李震宇认为人工智能将重塑汽车空间,人与汽车的关系将会截然不同。 “未来,我们相信每辆汽车都会搭载一个数字虚拟人。 未来的数字虚拟人不仅可以模拟人的外形,还可以注入灵魂,真正拥有对人类意图的理解……同时也不再是单一以前场景的车机助理的身份,而会转化成全能助理。 ”

他相信,随着通用人工智能的发展,智能座舱将成为汽车创新的新焦点,将会重塑其空间,届时用户和车企之间的距离将缩短,用户和品牌之间的关系将更为紧密。 “拥有自然语言交流能力的智能车可以让车企与用户直接进行一对一的对话。 当汽车成为全能助理后,车企将面对用户需求爆发式的增长。 ”

王晓刚称,在智能座舱板块,通用人工智能可以使基模型具备对空间环境的理解、用户状态的感知、多模态指令解析及多轮逻辑对话、内容生成等一系列能力,进而赋能包括情绪感知、智能助手、基于情感的对话、创意内容生成、个性交互等一系列功能,不断地提升个性化体验,进一步拓展应用场景。

“智能汽车是通用人工智能实现闭环的一个非常好的场景,我们已经有人机共驾。 ”王晓刚表示,“未来我们希望车和模型之间能够产生更有效的互动,那就完成了从人到车到模型这样一个互动闭环,能够让通用人工智能为我们提供更好的驾乘体验,解锁无限的想象空间。 ”

只是,消费者距离这种有着“无限的想象空间”的汽车生活还有多远,没有人说得出答案。

希望在于将来

想象是美好的,不过,挑战也随之而来。

“过去我们一年要做大概1000万帧的自动驾驶图像的人工标定,请外包公司进行标定,大概6到8元钱一张,一年的成本接近一个亿。 但是当我们使用软件2.0的大模型通过训练的方式进行自动化标定,效果会非常可怕——过去需要用一年做的事情基本上三个小时就能完成,效率是人的1000倍。 ”理想汽车创始人、董事长兼CEO李想OK表示,“对于员工来说,他们会感觉用拳头打架遇到了拿枪的。 ”

他认为,在这样的状况下,如何能够让软件2.0和现有人才进行融合,为他们提供怎样的全新工作流程、激励机制,如何去选用任用人才,给全行业提出了挑战。

更大的挑战可能还在于中外大模型技术的差距。

3月25日,在2023中国发展高层论坛上,360创始人、董事长兼CEO周鸿祎表示,目前来看,中国大语言模型和GPT-4的差距在两到三年时间,GPT的技术方向已经明确,不存在难以逾越的技术障碍,中国在场景化、工程化、产品化、商业化方面拥有巨大优势,应当坚持长期主义精神,迎头赶上。

4月9日,由中国人工智能学会主办的人工智能大模型技术高峰论坛上,融汇金信CTO李长亮认为,未来做通用大模型的和做场景的分层很清晰,没有中间态。 做通用大模型需要大量的算力、数据、人员、资源等,只有有很强技术储备和资源调配能力的大公司才能做,中小创业公司在这条赛道上会很难;在垂直应用上,基于大模型的发展,结合场景的know-how做一些创新应用,则会有无数的企业诞生。

他还认为,中国在大模型这个产业赛道上是很有机会的,因为在中文场景下,我们更懂我们自己的语言,沉淀了大量的中文知识,会迅速追赶并超越。

我们也注意到,计算机科学家、自然语言模型专家吴军在4月3日晚得到的一场直播中则给当下的ChatGPT热泼了盆冷水。 他直言ChatGPT在中国被过度炒作了,中国的大部分研究机构是做不了的。

在他看来,ChatGPT的原理很简单,但是在工程上要想做到,其实蛮困难,因为ChatGPT太耗资源,光硬件的成本就要差不多10亿美元,这还没算电钱。 ChatGPT训练一次要耗多少电?吴军的说法是,大概是3000辆特斯拉的电动汽车,每辆跑到20万英里,把它跑死,这么大的耗电量,才够训练一次。 这是非常花钱的一件事。

他的结论是,ChatGPT不算是一项新的技术革命,带不来什么新机会,最后可能的一个结果就是给几家大的做云计算的公司交钱。

由ChatGPT带起的大模型热,最终会在各行各业开花结果,还是盛名之下其实难副?不妨把这个问题交给时间。

【汽车人】大模型:汽车的自我革命

汽车变身为行走的计算终端,其革命性形态已经出现。 现在就参与大模型构建和应用,就显得比较重要了。

文 /《汽车人》黄耀鹏

今年的新能源汽车产业,如果说有什么技术发展方向是业内共识的话,除了高压快充普及,就是大模型接入了。

7月31日,吉利预告了大模型技术;8月8日,广汽推出“广汽AI大模型平台”;本月,奇瑞将发布自己的AI大模型……在此之前,小鹏、理想、特斯拉都宣称自己拥有“自动化数据闭环系统”(大模型的一种应用方向)。 李想公开宣称:“大模型的研发和训练,是智能电动车企业的必要能力。 ”

而平台级公司,网络、阿里、腾讯、360、华为都推出了自己的大模型。 上半年结束的时候,国内大模型已经达到80个以上。 中美两国的大模型数量占据了全球80%。

面对大模型,车企有三种选择:第一种是从基础层开始,全盘由自己搭建;第二种是在平台级企业搭建的基础层上搭建应用层;第三种是直接接入某个大模型。

目前,三种玩法都有一批企业参与。 网络的文心一言(语言大模型),就有长安、红旗、岚图、长城、吉利、东风日产、零跑、集度等几十家车企接入。

大模型有很多应用方向,语言类的集中于智能座舱的优化。 而汽车必须首先满足安全便捷地运送乘客,自动驾驶能力是刚需。 因此,现在车企部署/接入的大模型,主要就是做自动驾驶,或者其中的一些环节。

什么是大模型

到底什么是“大模型”?

其实“模型”就是一段计算机程序,用来构建一个虚拟的神经网络。 和生物的神经网络类似,只有刺激到一定程度,神经才会活跃。 如果再强化刺激,就会输出活动。

这其实就是多段函数的表达。 神经网络模拟任意连续函数,也就成了可能。 上世纪80年代之后,这些计算机概念就建立起来,并在自动驾驶上应用,但一直没有大的突破。

原因在于参数量。 这是ChatGPT火起来的重要原因。 OpenAI公司发现,模型参数如果多到一定程度,系统智能(模型精度)就会极大提升,原理现在无法解释,但已经有了一个词汇来形容——“涌现”。

多到什么程度呢?一般来说,至少要1亿左右。 当然,因为自然语言的信息密度高于图像,所以ChatGPT-2的参数量达到15亿个,而ChatGPT-3则达到1750亿个,刚好和人类神经元数量级别差不多。

不过,自动驾驶方面的应用,现在用不了那么多参数。 因为“涌现”现象尚未在计算机视觉领域出现。 考虑到成本,车企们都未将大模型参数量做到ChatGPT-3那么夸张。 但上亿是没跑的,否则就很难叫大模型,需要部署超算中心或者云端算力中心,来运行如此之多的参数。

运行参数用来做什么?对自动驾驶系统进行数据训练。 那么大模型定义就呼之欲出了,就是拥有大量参数、运行于大算力硬件平台上,并能够完成无监督学习(自我训练)的计算机程序。

自动标注和预标注

以前都是有监督学习(人工训练),现在让AI自我训练,就需要先完成数据闭环。 这就是为什么几家新势力说自己拥有“自动化数据标注系统”的原因,其实就是大模型的一个功能。

而完整的数据闭环则囊括了数据采集、数据回流、数据处理、数据标注、模型训练、测试验证诸多环节。 其中,“数据标注”是AI自我训练的前提,也是AI训练的成本节点。

所谓标注,就是给视频或者图像的关键信息点贴上标签,以便让系统认识并在实际操作中做针对性规划。 显然,量产车采集的场景基本都是重复的,数据意义不大。 专门采集车则比较贵(成本每天6000元-元)。

重点是,如何尽量多地搜集到“长尾场景”,即不常遇见,但驾驶了很多次之后,每个人几乎都会遇上的场景(占5%左右)。

在大模型上线前,都是人工标注。 1000帧的视频数据,人工标注成本可能达到万元。

而大模型目前最有价值的部分,莫过于自动化数据标注,可能会节约上亿元(取决于替代多少人标注数据)。

特斯拉为了打造一套高效数据闭环系统,自研了超算中心。 超算的另一个作用,就是有了基底训练数据——超过20亿公里,就不太依赖新的实际路采了。 大模型会改变参数,在电脑里面重建场景,自动进行长尾场景的自我训练。 比如采了白天的数据,稍微改一下,就变成黑夜、雨天,或者有司机急打方向盘、急踩刹车造成的混乱等等,都可以模拟。

在超算上运行的大模型,对长尾场景自动进行“预标注”。 而后续还要进行人工审核,譬如要把漏标的框标注出来、把标注错误的框删掉、把框的大小统一等。 如果大模型预标注做得好,那么后续人工审核工作量就很小了,与采用人海战术对每一个图像要素进行标注,完全不可同日而语。

新的合作方式

数据闭环的工作现在已经分割给外包供应商、大模型平台公司(也可以视为供应商)和车企分别来做。

关键在于,数据闭环能否让车企有效迭代自动驾驶算法,并提升应对偶发场景的能力(这几乎是L4绕不过去的坎)。 落实到使用层面,通过多方合作,基于新的标注数据,进行新的训练,实现由数据闭环驱动自动驾驶软件迭代,并通过OTA部署到终端。

很少有车企能够彻头彻尾地自己部署基础大模型,自己搞定应用层,自己设计预标注并实现数据闭环,再驱动算法更新。 这即是L4的进化之路,它的技术复杂度要求车企与供应商充分融合式合作,而非传统的供应商“交付”-主机厂应用。

车企过于看重价值链全盘掌握,强调全栈自研,可能会耽误迭代进程。

如果设计一种规则,比如基础层大模型由平台级公司设计,车企负责掌握标注规则,并将后续人工审核交给另外的第三方,拿回标注好的数据之后,自己进行训练。 通过任务拆解,让自己处于自动驾驶价值链的核心地位。 避免在关键技术上受制于人,也不用被迫接受“全家桶”(即由某个供应商提出软硬一体的解决方案)。

车企对这种方式应该驾轻就熟,现在球踢回供应商这边,要求后者也要主动参与到车企的大模型设计和训练当中,而不必执着于“打包交付”。

目前,虽然上马大模型的车企越来越多,但是已经实现数据闭环,并部署于量产车上的,几乎没有。 大家都还在拼“谁先抵达下一个节点”。 好消息是,L4看上去并非那么遥不可及了。

现在的问题是,一个主机厂面对好几个自动驾驶系统供应商。 各个供应商提供的每一个模块,代码质量不一,工具链可能也不相同。 如何检验不同供应商的模块是否存在冲突,目前的工程化还不够成熟。

这就涉及到,新获得的长尾数据,对决策(规划)产生的影响到底是什么。 有些新增数据,上了模型训练之后,效果变好(有效应对了该场景),但总体上效率下降。 这样的局部改善导致整体变差的情况,需要对全局价值进行一番预评估。 这是另外的话题了,不展开。

转移模型到车端

不过有一点需要澄清,大模型部署于超算中心或者云端,但很难部署于车端。 因为后者没有那么强的算力,而且车端的数据存储空间也不胜任。 大模型的训练也要在超算平台上完成,训练得差不多了(改善可以无终点),就能上车,大模型就必须缩窄成中模型或者小模型。

数据需要压缩,将知识体系(从感知输入到规控输出)转移到轻量级的模型上,后者是车端算力和存储可以承受的。

这其实就是“端到端”的算法。 很多人都将“端到端”视为自动驾驶算法的终极形态。 所谓“端到端”,即只要有原始数据输入(环境感知),就可以输出结果(操作动作),和ChatGPT类似,中间过程对观察者来说是“黑盒子”。

虽说人类不需要理解决策过程,但人们总担心自动驾驶算法会输出匪夷所思的决策。 大量实践结果没问题,也不能打消顾虑。

不过这很像人类驾驶了。 熟练司机从眼睛看见,到转方向盘、踩刹车或油门,都是中枢神经在工作,人类没有觉得自己花时间思考了。 这就是大脑的“预训练系统”在起作用。

转移模型还有个好处,就是避免了云与车端通讯的时延问题。 车端AI反应都是毫秒级,如果指望云端给出关键规划,哪怕有边缘计算加持,通讯也不能在任何时候实时保障。

云端的作用,可以发挥大模型的参数容量优势,完成数据挖掘、自动数据标注等任务。 在车端,可以部署分管不同子任务的多个小模型,合并成一个“中模型”,以节省车端计算环节的推理时间,增加安全性。 不过车端模型的参数量,要比云端少一到两个数量级。

为了提升ChatGpt的能力,OpenAI在8年间耗费十亿多美元的训练成本。 车企大概率不会付出那么高的成本(不过特斯拉超算中心就花了10亿美元)。 如何用有限资金,抢占场景落地和商业化的速度(即训练迭代速度),而非一味追求模型之大、算力之强?

既然AI的应用已经走到了利用大模型实行空间(再现物理空间)计算这一步,那么L4就有可能实现。 这是所有车企应该具备的能力,无论它们采用什么方式达致这一目的。

汽车变身为行走的计算终端,汽车的革命性形态,已经出现在视野,不再遥遥无期。 现在就参与大模型构建和应用,而不是置身事外,就显得比较重要了。

引入ChatGPT的AI游戏编辑,只存在了24小时

澳洲知名游戏媒体集团Gamurs尝试引入AI编辑的项目在短短一天内遭遇了挫折。 在本周二,他们发布了一则招聘启事,寻求能够运用ChatGPT的AI编辑,要求这些编辑具备SEO技巧和内容优化能力,计划每周产出200至250篇文章。 然而,这个计划的推出时机并不适宜,就在两个月前,Gamurs已裁减了旗下多家游戏媒体近40%的编辑团队。 这一举动引发业界内外的强烈反响,包括游戏记者Tom Henderson的讽刺。 Gamurs的首席运营官凯文·莫里斯随后在公司内部Slack群组道歉,并宣布暂停AI编辑的招聘。 尽管如此,员工们认为这可能只是应对舆论压力的临时措施,AI编辑的招聘可能很快会重启。 Gamurs官网上关于AI编辑的招聘页面已撤下,显示出他们在推进AI内容创作的尝试上遇到了暂时的阻碍。 AI在内容生产领域的影响力日益显著,国内也出现了自媒体利用ChatGPT撰稿的现象。 然而,即便如此,Gamurs也认识到需要人工编辑对AI生成的内容进行质量把控,内容量的增长并不意味着质量同步提升。 对于这个职位,Gamurs提出了严格的要求,包括对AI生成内容进行优化和提供吸引点击的标题,同时保证内容的原创性和权威性。 然而,这些要求对应的工作强度却高达每天40至50篇文章,这对于编辑来说几乎是难以承受的。 此外,Gamurs给出的AI编辑年薪(4万至5.5万澳元)远低于行业平均值(至少7.5万澳元),这引发了员工和外界的质疑。 外界担忧,如果Gamurs使用AI在旗下知名网站如Destructoid和Siliconera发布大量内容,用户体验可能会受到影响。 尤其是对于那些刚经历过大规模裁员,编辑人数减少的员工来说,他们的职业前景和工作环境受到了质疑。 尽管Gamurs暂时撤回了招聘,但内部员工透露,AI生成内容的趋势已引起公司内部的分歧。 Gamurs在AI编辑招聘被曝光后,迅速做出回应,表示将重新评估AI编辑的引入计划。 目前,Gamurs网站上尚未出现AI生成的游戏新闻或其他内容,但未来的发展走向仍待观察。

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://m.srwj168.com.cn/keji312/41241.html
靠着这届欧洲杯 咱也是把老爸衣柜里的球衣给穿明白了!
暂无