用微信扫码二维码
分享至好友和朋友圈
IT之家 10 月 14 日消息,Meta 首席人工智能科学家 Yann LeCun 近日在接受《华尔街日报》采访时表示,对人工智能对人类生存的威胁的担忧是“彻头彻尾的胡说八道(complete B.S.)”。
LeCun 是人工智能领域的一位先驱,曾获得图灵奖,目前担任纽约大学教授和 Meta 高级研究员。他此前曾在社交媒体上表示,在担心控制超级智能 AI 之前,我们需要先弄清楚如何设计一个比家猫更聪明的系统。
LeCun 在接受《华尔街日报》采访时详细阐述了他的观点,在回答有关人工智能变得足够聪明以至于对人类构成威胁的问题时,他说:“你将不得不原谅我的法语,但那是完全的胡说八道。”
LeCun认为, 今天的语言大模型缺乏一些关键的“猫级”能力,如持久记忆、推理、规划和对物理世界的理解 。他认为,这些模型只是证明了“你可以操纵语言,但并不聪明”,它们永远不会产生真正的通用人工智能(AGI)。
IT之家注意到,LeCun 并不完全否认实现 AGI 的可能性,但他表示,需要新的方法来实现。他指出,他领导的 Meta 基础人工智能研究团队正在研究如何消化真实世界的视频,这可能是一种有前景的方向。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.
网易跟贴
注册 手机发跟贴 登录并发贴网友评论仅供其表达个人看法,并不表明网易立场。
目前没有跟贴,欢迎你发表观点
小米腕部血压记录仪 Watch H1 E 线上开售,1899 元
返回网易首页 下载网易新闻客户端小扎砸数百亿美元猛攻开源AGI!狂掷60万块H100,爆50倍GPT-4算力
小扎正式宣战「开源AGI」,投入数百亿美元巨资猛攻,目标直指下一代大模型Llama 3。 此模型预计年底将拥有近35万块H100,算力总和高达60万块H100,力图追赶OpenAI。 FAIR团队将纳入GenAI,全力研发AGI,并全面开源。 为了打造Llama 3,Meta内部正集中资源,计划在年底构建起庞大的计算基础设施,包含接近35万块H100的GPU设备,总算力相当于60万个GPU。 这将使Llama 3的算力达到30倍GPT-4的水平,接近GPT-5的性能。 小扎的算力投入高达105亿美元,加上电费,总花费将超过百亿美元。 这仅仅是Llama 3训练所需的资金之一。 有预测指出,为了服务推荐系统,Llama 3的算力训练成本可能高达150-200亿美元。 FAIR的使命是开发具有人类水平的AI助手,旨在构建一个理解世界、感知、记忆、推理、计划和行动的系统。 未来,AI将与智能设备结合,如Ray-ban智能眼镜,实现与数字世界的互动。 为了加速进程,FAIR现已成为GenAI产品部门的姊妹机构,同时Meta正在建设大规模的计算基础设施,支持AI研究、开发和生产。 Meta致力于开放研究和开源AI平台,Llama 3的推出将实现这一目标。 通过开源AI,Meta希望推动AI创业生态系统的发展。 在过去一年的讨论中,开源人工智能平台的必要性和价值逐渐形成共识。 小扎强调全员打造「开源AGI」,Meta全员重振旗鼓,向AGI迈进。 随着Llama 3的训练,AI圈对此充满期待,Llama 3将匹敌GPT-4,实现免费开源。 在过去的5个月里,从Llama 1的首次亮相到Llama 2的升级,Meta不断推进模型发展。 Llama 2在某些应用中与GPT-3.5性能相媲美,并通过微调,使得开源社区能够对其进行优化。 Llama模型的开源引发了模型生态的爆发,下载量超过3000万次,其中过去30天内的下载量超过1000万次。 FAIR团队的重组,将10年历史的FAIR团队并入GenAI,旨在实现更紧密的合作,加速AI研究项目和蓝图的发展。 FAIR的副总裁Joelle Pineau和首席AI科学家Yann LeCun将向Meta的首席产品官Chris Cox汇报工作,这标志着AI研究在Meta中核心地位的确立。 这次调整强调了AI研究对Meta及其产品长远成功的重要性。 通过FAIR和GenAI的合作,Meta将拥有一个统一的AI研究项目和流程,确保在法律、政策和品牌形象方面的一致性。 随着AI技术的持续进步,Meta致力于推动AI创业生态系统的发展,并确保AI的创新与应用符合社会伦理与责任。
人工智能需要一场认知革命吗
人工智能是一项战略性前沿技术。 近年来,智能产业发展迅猛,机器人、智能制造、智能穿戴、智慧医疗等一系列的产业集群爆炸式渗透到人们的生活当中,持续改变人类生产、生活的模式。 8月15日,由中国人工智能学会发起主办的“2015第五届中国智能产业高峰论坛”在上海成功举办,吸引了诸多人工智能领域学术、产业、舆论界领袖级人物。 科大讯飞高级副总裁、讯飞研究院院长胡郁应邀出席,并在会上做了题为《人工智能需要一场认知革命吗》的主题演讲。 人工智能何时将实现真正革命性突破?胡郁表示,在这个问题上有存在两派的观点,一个是霍金、马斯克和比尔•盖茨,他们认为人工智能很危险。 而理智派的观点,如FaceBook人工智能负责人Yann LeCun和大量人工智能业内人士则认为人工智能还远未达到能够威胁人类的地步,还有很多技术探索工作要做。 如果计算机可以完全模仿人类大脑的神经活动,是不是就可以产生和人类智能类似的功能?在胡郁看来,神经网络和人脑的工作方式基本没有关系。 “只是结构上可能有点相似,如果从仿生的角度来讲人工智能大脑是最浅层的仿生,工作算法方面和人脑的工作机理没有什么联系的。 但是投入了研究以后究竟有没有突破性的变化没有人能够预测,要等五到十年看看效果才能知道。 ”胡郁说。 人工智能研究面临的最大挑战是什么?“语言的使用区分了人与动物,也将是人工智能研究面临的最大挑战!”胡郁认为,人工智能主要分为计算智能、感知智能、认知智能。 科大讯飞主要做感知智能和认知智能,感知智能方面包括语音识别、手写识别、图像识别等,讯飞已经在感知智能领域有了多年的技术积累,并取得了重要的技术与应用成果。 2014年,科大讯飞正式对外发布“讯飞超脑”计划,目标是能在认知智能研究方面有所突破,并将研究成果应用到包括智能客服、自动阅卷、人机交互等领域。 真正实现让机器从“能听会说”到“能理解会思考”。 随后,胡郁进一步介绍了科大讯飞在人工智能领域取得的进展。 讯飞的机器智能阅卷技术在英语的四、六级考试和高考的作文里面已经可以做到跟人类专家相近的水平,并且已在安徽、广东等省的中高考中得到应用。 现在,科大讯飞正在牵头负责国家863类人答题机器人项目,未来要让机器人考上一本,甚至是清华、北大、中科大等高校。 在讨论互动环节中,中国人工智能学会理事长、中国工程院院士李德毅对科大讯飞在智能语音及人工智能领域取得的成果表示了欣赏,并向胡郁院长提出一个期许:希望讯飞能研发出具有情感的朗读机器人。 胡郁院长表示,让机器具备情感功能是一项巨大的突破,但是讯飞有信心实现。 据悉,这是中国人工智能学会连续第五届主办中国智能产业高峰论坛,前四届分别在北京、杭州、深圳、南昌举办,旨在加快我国智能科技产业的整体发展,推动信息化向智能化发展的进程,强化职能科学技术对新兴产业中的引领和支持作用。
Wayve获得10亿美金融资,端到端架构将重塑智能驾驶?
作者 |张马也
编辑 |德新
就在前两天,英国AI公司Wayve宣布获得新一轮10.5亿美元融资,投资方为软银、英伟达和现有投资人微软,可以说是顶级豪华阵容。
作为一家英国公司,Wayve这轮融资也创造了英国AI公司有史以来最大的单笔融资。 甚至英国首相也在一份声明中表示,它「巩固了英国作为人工智能超级大国的地位」。
在通用人工智能领域,在过去两年成为全球顶级的热门标的;而智能驾驶领域,曾经获得过10亿美金级融资的公司不多,只有Waymo、Argo、Cruise等少数几家。
Wayve的巨额融资也勾起人们对于未来的强烈好奇:它有没有可能成为智能驾驶领域的,又或者说,成为端到端这代技术上的Waymo/Cruise?
到目前为止,Wayve已完成三轮融资,累计融资金额超过13亿美元。 除了资本大鳄和商业巨头,有「深度学习三巨头」美誉、现Meta首席人工智能科学家Yann LeCun,也是Wayve的投资人。
Wayve上一次引发关注是在不久前3月份,原Mobileye中国区的负责人 Erez Dagan加入Wayve担任总裁,主要负责产品、业务和战略。
本轮融资后,Wayve将加速推出首款用于量产车辆的自动驾驶软件,包括L2+智驾软件以及实现完全自动驾驶的软件系统。 Erez加入后,其重点关注的方向也是面向OEM的交付。 据说,Wayve正在与全球前几大车厂商洽谈合作。
一、自动驾驶2.0:押注端到端Wayve由Alex Kendall(联创兼现任CEO)和Amar Shah(已离开)于2017年共同创立,两为均来自剑桥大学。
其公司总部英国伦敦,目前约有300名左右的员工。
Wayve称自己是第一个在公共道路上,开发和测试端到端深度学习自动驾驶系统的公司。
2015年,Alex Kendall与Vijay Badrinarayanan(现任AI副总裁)、Roberto Cipolla等人,一起提出了SegNet,这是第一个使用端到端深度学习进行语义分割的实时方法,无需高精地图即可理解复杂环境。
从2017年开始,Wayve就在汽车上对神经网络强化学习的一些早期成果进行了应用。 公司把这套系统在道路上进行了模拟部署,随后逐渐扩大规模,最终实现在伦敦市中心的交通环境下进行真实驾驶。
Wayve将自己的智驾系统称为AV2.0。
Wayve认为,基于传统机器学习方法的AV1.0架构,所面临的根本问题是技术可扩展性。
因为它依赖复杂的传感器、高精度地图和手工编码的规则,使得系统成本居高不下,在行为预测、规划和处理长尾场景问题上,效果很难提升。
AV2.0不依赖传统的高清地图和手工编码的规则,而是专注于构建数据驱动的学习型驾驶系统,而且可以扩展、适应、推广到系统从未见过的场景。
AV2.0的特点如下:
其中最重要的,就是端到端架构。
它抛弃传统的「感知 - 规划 - 执行」的架构,将车辆传感器原始的输入数据,直接转换为驾驶操作输出。
在行业内,端到端的方法已经得到了初步的验证。 特斯拉此前发布的FSD v12,就采用了端到端架构。 国内外很多用户试用过后,普遍的评价是,基本达到了人类驾驶的水准。
这种方法的核心是自我监督学习。 就像大语言模型LLM预测下一个单词一样,驾驶系统可以从原始的、未标记的数据中进行无监督学习。
自动驾驶和大型语言模型之间有许多相似之处,从根本上讲,它们都是大型的、高数据量的、复杂的决策问题。 输入模型的数据越多,AI模型的特定应用就越丰富,越具有表现力,无需人工输入即可对大量驾驶记录进行训练。
二、核心技术栈:解决可解释性,建立人机信任Wayve为自动驾驶的迭代升级开发了一个快速、连续和无缝的学习循环系统Fleet Learning Loop,不断记录数据、训练模型、评估性能和部署更新的模型,以此循环。
在量产车队中,它能从OEM的各种车辆中收集真实世界的驾驶数据,然后上传到云端处理,再将迭代后的模型部署到车端,升级车辆的自动驾驶功能。
Wayve还一直在开发智能驾驶基础模型(foundation model for driving)。 该模型利用多模态数据,包括文本和非驾驶视频源,来优化对驾驶环境的内部表征。
简单来说,就是通过从多个数据源学习,可以提高车辆对传感器流中最有意义和可操作性的方面的理解,从而提高智能驾驶的流畅度和安全性。
除此之外,Wayve还开发了LINGO和GAIA两个模型,用来解决智驾场景的可解释性和信任等问题。
行业内对端到端架构的其中一大担忧是它是一个黑盒方案,其过程不可解释。 LINGO能用自然语言描述自己的驾驶决策,并解释决策的原因。
例如在行驶过程中,LINGO做出了绕行路边停靠车辆的判断时,它可以向用户输出判断依据:由于交通堵塞,我正在缓慢靠近;我正在经过一辆停在路边的车;因为前方道路畅通,所以我加速前进。
Wayve在去年下半年推出过LINGO-1,当时该模型以视觉和语言信息为输入,但只能输出语言结果。 LINGO-2的输入和输出都可以是视觉和语言信息,甚至也包括驾驶行为,也就是能控制车辆的行驶。
按官方说法,LINGO-2是一种将视觉、语言和行动综合起来,以解释和确定驾驶行为的驾驶模型,是第一个在公开道路上测试的,闭环「视觉-语言-行动」驾驶模型(VLAM)。
LINGO-2 架构
LINGO-2 的亮点在于:通过语言提示,调整驾驶行为。
可以使用一些限定的导航命令,如「靠边停车」、「右转」等,让LINGO-2调整车辆的行为。 这也能帮助模型训练,并且增强人车交互。
LINGO-2在指令的要求下停车
LINGO-2回答场景问题,并解释驾驶操作
通过直接将语言和动作联系起来,LINGO可以一定程度上揭示出AI系统如何做出决策,使得自动驾驶模型不再是一个「黑盒子」。
更重要的是,LINGO可以增强人类对智能驾驶系统的信任。
目前,LINGO-2还只在Ghost Gym模拟器中进行了验证,在现实世界中用语言控制汽车的行为是否可以可靠、安全地完成,还需要更多研究。
三、将世界模型融入驾驶模型对于长尾场景,Wayve给出的一个解决方法是GAIA-1,一个为智能驾驶打造的生成式世界模型。
GAIA-1架构
GAIA-1首先是一个多模态生成模型,利用视频、文本和动作输入,生成逼真的驾驶场景视频。 它能够对车辆的行为和其他基本场景特征,进行细粒度控制。 无论是改变车辆的行为,还是修改整体场景,模型都能完成。
这样,GAIA-1可以作为仿真模拟中的重要一环,生成无限的数据,来训练和验证自动驾驶系统,解决极端场景,特别是在获取真实世界数据成本高或风险大的情况下。
GAIA-1可根据各种提示,生成驾驶场景
它还是一个真实的世界模型,可以学习、理解驾驶中的重要概念,比如什么是卡车、公共汽车、行人、骑自行车的人、道路布局、建筑物和交通信号灯。
所谓世界模型,是对环境及其未来动态的表征,能实现对周围环境的结构化理解,就像人类对自己周围的环境进行建模理解一样。
将世界模型整合到驾驶模型中,使得自动驾驶车辆能够预测未来事件,从而提前规划行动,在复杂或未知的情况下做出更加明智的决策。
目前版本的GAIA-1拥有超过90亿个可训练参数,训练数据集包含了2019年至2023年在伦敦收集的4700小时的专有驾驶数据。 模型可以预测视频序列中的后续帧,从而在不需要任何标签的情况下,实现自回归预测能力。
四、迈向商业化量产目前,Wayve在商业化上的作为不多。
此前,它一直在英国生鲜配送公司Ocado的车上训练模型,这家公司也是投资方之一,曾投资了1360万美元。
据称,Wayve已经在全球100多个城市开始了系统测试。
本轮融资后,Wayve将加速推出首款用于量产车辆的自动驾驶软件,包括L2+智驾系统,以及实现完全自动驾驶的软件系统。
它也在与全球前几大车厂商洽谈合作,但具体名单未知。
原Mobileye中国区的负责人Erez Dagan加入Wayve担任总裁,其重要的关注方向也是面向OEM的交付。 Erez在Mobileye工作了20年,是全世界第一款纯视觉ADAS产品的创始团队成员,后来担任产品和战略执行副总裁,并在Mobileye被收购后担任英特尔集团副总裁。
联系到此前马斯克表示,特斯拉将于今年8月8日发布Robotaxi,种种迹象似乎表明完全自动驾驶的技术路线正在逐渐清晰。
Wayve的目标甚至不止于此。 在最近Techcrunch的一次采访中,Alex Kendall说到,Wayve的驾驶大模型不仅在驾驶数据上进行训练,还对互联网规模的文本和其他来源进行训练,甚至使用英国政府的PDF文档来训练模型。
Wayve正在构建具身AI(Embodied AI)基础模型,一个基于非常多样化的数据进行训练的通用系统,能够在复杂的现实世界环境中感知、行动、学习和适应人类行为。 智能驾驶只是这一系统目前最大的应用场景。