成立至今不到16个月 狂揽资本!马斯克xAI寻求400亿估值

财联社10月30日讯(编辑 赵昊) 据媒体报道,知情人士透露,埃隆·马斯克的人工智能初创企业xAI正在寻求新一轮融资,融资后公司估值将达到约400亿美元。

这位消息人士表示,融资谈判尚处于初期阶段,细节仍有可能发生变化,并存在谈判破裂的可能性。

就在今年5月时,xAI在B轮融资中筹得60亿美元。当时公司未说明企业估值多少,但有消息提到,这个数字约为240亿美元。

若新的消息属实,这意味着xAI有望在半年不到的时间里将估值增加了超60%,使其跃居至美国最有价值的初创公司行列。

根据市场研究机构CB Insights的数据,目前估值高于400亿美元的独角兽只有7家。

其中,马斯克的另一家初创企业SpaceX估值为2000亿美元,马斯克参与创立、xAI竞争对手OpenAI的估值为1570亿美元。

值得一提的是,xAI成立于2023年7月份,距今不到16个月,其生成式人工智能聊天机器人Grok甚至还不到一周岁。

日内早些时候,马斯克在利雅得“未来投资倡议大会”上表示,他的目标是将xAI的计算能力提高一倍。

先前,xAI在孟菲斯建造完成了一台超级计算机。马斯克表示,xAI在孟菲斯的设施已经是该领域最大的数据中心。

马斯克说道:“我们已经为xAI建立了世界上最强大的训练集群,我们即将将其翻倍。”

关于人工智能领域,马斯克从两个方面谈了看法。首先,AI每年都在以“好10倍”的速度在发展,估计在两年或两年以内,所有人类能做的事情AI就都能做了。

但与此同时,马斯克认为AI有10%-20%的概率变成一件坏事,会构成重大生存威胁,这也是他创xAI公司的初衷——确保人类拥有一种真正关心人类最佳利益的人工智能。


马斯克披露xAI细节:6年实现AGI,特斯拉推特资源都能用!2万块N卡被曝已到位

不愧是马斯克,引爆外界对xAI的好奇心后,他带着团队进行了一场公开直播回应,详细披露了更多细节。 他强调xAI研究宇宙的本质是为了实现人工智能通用智能(AGI),并认为xAI比谷歌和OpenAI更值得信任,能构建更安全的AI系统。 马斯克指出,xAI不是上市公司,不受市场约束。 演讲吸引了超过3万人围观,甚至引来了OpenAI联合创始人格雷格·布洛克曼的关注。 总结整场talk,xAI的使命是构建一个拥有极致好奇心且寻求真理的AI,目标理解宇宙本质,马斯克相信这是构建最安全AI的途径。 团队具有梁和谈强大的研发能力,每个人都能获得大量计算资源。 xAI计划与特斯拉合作,利用特斯拉在高效训练和推理方面的积累,将更多精力放在软件开发上。 团队计划尽快发橡碰布产品,并从公众反馈中获取有用信息。 xAI将对任何政府保持公开透明,反对违反公众利益的行为。 马斯克明确表示xAI将与特斯拉、推特合作,利用推特的丰富数据进行训练,不会访问私人数据。 除了与特斯拉和推特的合作,xAI计划与谷歌Alpha Zero决策类算法类似,实现决策能力的提升。 团队模式与SpaceX、特斯拉保持一致,采用小团队、全精锐的运作方式。 马斯克透露,xAI的大模型将从数学角度切入,因为数学可以开辟新的思考方式,对基础物理问棚郑题的解决带来帮助。 马斯克还指出,对于超级AI来说,与人类共存比灭亡人类更有意义。 他认为,太阳系里有无数星星,而人类比这些星星都有趣。 在演讲中,马斯克还提到了团队的薪酬,顶级研究员的薪酬高达9位数,相当于初创公司1%股票期权价值2亿美元。 此外,关于算力问题,马斯克试图从英伟达购买4万张用于训练AI的GPU,但最终只承诺提供2万张。 马斯克强调,特斯拉Dojo并非GPU,尽管人们通常将其视为等价。 随着xAI的正式宣布,未来一段时间内还会有更多消息传出。 让我们拭目以待,见证xAI的发展。

探秘Grok-1 - 马斯克旗下xAI开源的大模型,参数量3140亿

引言Grok-1,由马斯克旗下xAI公司开发,是一个开源大型语言模型,参数量高达3140亿,成为目前最大参数量的开源模型。 遵循Apache 2.0许可,用户可自由使用、修改和分发,用于个人或商业用途。 Grok-1信息如下:[公式]参数细节包含以下几个方面:模型效果参考链接:华尔街见闻Grok-1在两个月的训练后达到最佳效果,期望通过用户反馈迅速改进。 在四个月的研发中,Grok-1经历了多次迭代。 从330亿参数的LLM原型Grok-0开始,经过优化,最终开发出功能更强大的SOTA语言模型。 在HumanEval编码任务中,Grok-1成绩为63.2%,在MMLU中成绩为73%。 xAI使用标准机器学习基准对Grok-1进行评估,显示出强劲性能,超过ChatGPT-3.5和Inflection-1。 虽然与GPT-4相比有所不足,但Grok-1在开源模型中表现突出。 代码解析深入探究Grok的结构:代码链接/xai-org/grok...解高世析如下:2. DecoderLayer:分解解码层3. MHABlock:多头注意力块4. MultiHeadAttention:多头注意力机制5. MoELayer:混合专家层6. Router:路由层7. DenseBlock:密集块8. InOutEmbed:闭念含输入输出嵌入9. LanguageModel:语言模型特别点和技术2. 分片和并行化轿笑:优化计算性能3. 混合精度:提高计算效率4. Mixture-of-Experts (MoE):提升模型效率5. 权重量化:降低存储需求6. 增量解码:提高响应速度7. 动态规模初始化:提高训练稳定性

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://m.srwj168.com.cn/keji312/28531.html
马德兴谈中国女足 传接球速率太慢 为何不给更多年轻人机会
海尔系资本扩张脚步暂缓 已过会的日日顺终止发行