Ilya三个月肝出50亿美金独角兽!SSI 10人团队不走OpenAI老路

新智元报道

编辑:桃子 好困

【新智元导读】 就在刚刚,Ilya创业新公司SSI完成一笔10亿美元融资。公司仅仅成立3个月,10位成员,如此神速地拿到巨额融资。目前,公司估值高达50亿美金。

时隔三个月,失踪人口再次回归!

Ilya官宣,自家公司SSI(Safe Superintelligence)完成10亿美元首轮融资,估值高达50亿美金。

他发文称,「高山已确定,是时候往上爬了」。

另一位联创Daniel Levy表示,是时候开干了!

SSI首轮融资的投资者包括,Andreessen Horowitz、红杉资本、DST Global、SV Angel。

由Nat Friedman和SSI首席执行官Daniel Gross运营的投资合作伙伴关系NFDG,也参与了此次投资。

根据文件显示,SSI通过多轮融资活动,才筹集的这笔资金。公司已经授权了种子轮、种子扩展轮和A轮股份。

值得一提的是,SSI目前仅有10名员工,仅仅成立3个月,便深受资本的青睐。这背后,与最大的IP——Ilya有着密切关系。

不得不说,Ilya带领SSI一开局,就强的一批。

三位联创:Daniel Gross、Ilya Sutskever、Daniel Levy

3个月,50亿美金独角兽

路透独家报道称,此次融资最重要的目的,便是购买算力、聘请顶尖人才。

这家公司自成立伊始,性质便是一家传统的盈利性公司。

相比之下,OpenAI和Anthorpic都采用了创新的架构——前者是「利润封顶」模式,而后者是「长期利益信托」。

6月19日,离职OpenAI一个多月的Ilya,终于现身正式宣布了新公司。

他与前苹果AI项目负责人Daniel Gross,以及前OpenAI研究员Daniel Levy共同创立了SSI。

Ilya和Levy担任首席科学家,而Gross负责算力和公司的融资。

在SSI的官方介绍中,Ilya这样解释了公司的宗旨和愿景——目标唯有一个,就是「实现安全的超级智能」。

并且,Ilya同时广发英雄令,召集世界上最优秀的工程师和研究者前来。

有网友调侃道,快把Greg招过去,他正好在休假。

目前,SSI已经在两地——加利福尼亚Palo Alto,以及以色列Tel Aviv,建立了一个小型且高度可信的研究团队。

联创Daniel Gross在采访中再次表示:

从另一方面可以看出,一些资本家们仍愿意对,专注于基础AI研究的杰出人才投入巨资。

所有人更加关心的是,SSI究竟要打造出什么样的项目。

新的山峰

在OpenAI工作十年后,37岁的Ilya对创业愈加充满热情。

他认为,全新的创业项目是非常有意义的,因为发现了一座与之前工作,略有不同的山峰。

去年,作为OpenAI非盈利母公司董事会成员,他曾参与投票,决定罢免Sam Altman,理由便是「沟通破裂」。

几天后,他又改变了决定。

一起与几乎所有OpenAI员工一起签署了联名信,要求Altman回归和董事会辞职。

但这一系列事件,削弱了Ilya在OpenAI的角色。先是被移出董事会,然后在今年5月离职OpenAI。

因此,与OpenAI出于AI安全考虑,而采用的公司结构不同(这使得Altman罢免成为可能),SSI采用了传统的盈利性结构。

SSI对招聘的人才,也提出了一定的要求——必须与公司文化理念契合。

Gross表示,他们花费数小时评估候选人是否具有「良好品格」,并寻找具有非凡能力的人,而不过分强调AI领域的资历和经验。

他补充道,当我们找到对工作感兴趣,而不是对场景、炒作感兴趣的人时,才最令人兴奋。

算力候选

在算力方面,SSI计划与云服务提供商,以及芯片大厂合作,来满足计算能力的需求。

不过现在,他们尚未决定与哪些公司展开合作。

一直以来,OpenAI、xAI等初创公司都与微软、英伟达等公司合作,来满足对基础设施的需求。

作为大模型Scaling的早期倡导者,Ilya认为AI模型性能,与算力的提升呈正比。

正是这个想法施展,引发了AI在芯片、数据中心和能源方面的投资浪潮,为ChatGPT这样的生成式AI进步,奠定了基础。

与众不同

创业后的Ilya对Scaling Law有了不同的看法,并表示,他们将以不同于OpenAI的技术来处理Scaling,但并未透露出细节。

现在,他更愿将其称之为「Scaling Hypothesis」。

更远的畅想是,未来一些人可能会与AI合并。

几年前,Ilya在一期播客采访中预测,与AGI互动可能帮助我们更好地观察世界,并认识提升自己。

随着世界的变化,一些人可能会选择与AI合并,以便理解这些变化,并去解决一些棘手的问题。

人类与AI合并的这个问题,也只有Ilya能回答。

「安全超级智能」的时代来了

超级智能,如何安全?看似一个矛盾的话题,Ilya团队如何实现?

所谓「安全的超智能」,意味着AI有着惊人的智能,但不会被「天网接管」。

想象一下,一个如此强大的AI,它可以应对气候变化、治愈癌症……并将人类视为真正的问题。这可不是我们想要的未来,对吧?

至于SSI,他们表示自己将安全放在了首位。这里没有「快速行动和打破常规」,一切都是关于「和平扩展」。就像训练你的狗:在放它出门之前,首先教会它遵守规矩。

但问题在于,构建安全超智能就像试图训练霸王龙使用茶杯,技术障碍巨大。其中就有我们熟知的「对齐问题」——确保AI的目标与我们的目标一致。你懂的,就是「不要毁灭人类」那件事。

那么,SSI是游戏规则改变者还是只是一个幻想?只有时间会告诉我们。但他们对安全的承诺以及与其他研究人员的合作,可以说是AI世界中的一股「清流」。

谁知道呢,也许他们就是最终破解代码,并开启AI黄金时代的人。

顺便,可以随时关注一下事情的进展,没准还可以藉此提升与机器人谈判技巧(以防万一)。

参考资料:

https://x.com/ilyasut/status/1831341857714119024

https://www.reuters.com/technology/artificial-intelligence/openai-co-founder-sutskevers-new-safety-focused-ai-startup-ssi-raises-1-billion-2024-09-04/

https://www.linkedin.com/pulse/safe-superintelligence-inc-era-begins-ghazi-khan-6czmc/

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://m.srwj168.com.cn/keji312/19750.html
XT非凡大师代抢服务 起步价超2万 史上首款三折叠手机!二手
三星高管剧透GPT