奥特曼谈人工智能 也很难监管 进步是不可预测的

鞭牛士报道,5月3日消息,据外电报道,OpenAI联合创始人兼首席执行官萨姆·奥尔特曼 (SAM ALTMAN) 在剑桥参加了 Xfund 主办的一系列活动。

他对挤满纪念教堂听他讲话的一群学生说:我真的很喜欢那些如果有效的话,就非常重要的事情,即使它们成功的机会并不高。

他解释了 20 年前,当他还是斯坦福大学的一名本科生时,是什么吸引他从事人工智能研究,当时这个话题还没有像今天这样成为一股巨大的力量:看起来,如果人工智能能够发挥作用,它就将是最酷、最重要、最令人兴奋的事情。因此,这是值得追求的。

Altman 在剑桥参加了 Xfund 主办的一系列活动,Xfund 是一家隶属于哈佛大学和麻省理工学院的早期风险投资公司。

在纪念教堂活动上,哈佛大学保尔森工程与应用科学学院院长戴维·帕克斯向奥特曼颁发了 2024 年Xfund 实验杯,该奖项旨在奖励来自世界最好大学的杰出创始人。

活动主持人——Xfund 的管理普通合伙人 Patrick Chung '96、JD-MBA '04,投资了 Altman 的第一家公司——向一千多名兴奋的学生示意,他们开始在封闭的环境中排队参加活动开赛前一小时哈佛庭院。

「他们看着你,他们渴望,他们梦想能像你一样对世界产生影响,」钟说。他会给自己这个年纪的自己什么建议?

「我认为你可以在这个世界上做一些事情。」奥特曼回答说,他的话语之间有特有的、深思熟虑的停顿。 「你不需要等待,也不需要获得许可。你可以——即使你在这个世界上完全不为人所知,几乎没有资源——你仍然可以取得惊人的成就。」

一些人批评奥特曼面对先进人工智能的潜在危险而不懈地推动进步。

去年,奥特曼本人签署了一封信,将人工智能描述为人类面临灭绝的风险;他在国会作证时表示,如果这项技术出了问题,它可能会出大问题。

但他对放慢进展能否减轻这些威胁的方法表示怀疑。 20 年前,他从事人工智能研究,并不知道它会成为今天的技术,而且即使是现在,我们正在做出的最关键的决定,我们也没有意识到它们的重要性。

他继续说,进步是不可预测的,也很难监管。

「现在,在 OpenAI 的某个地方,有人做出了一些非常重要的发现——我不知道它是什么,我只知道它会在统计上发生——这可能会极大地影响未来。」他说。 「从表面上看,我完全同意,我们应该感到巨大的责任并做出正确的重大决策,但你并不总是知道那什么时候会发生。进展的结果才是应该控制的:决定是否部署 GPT-5,决定门槛应该在哪里——我们对此非常谨慎。」

关于开发和部署新人工智能的速度的大部分决策权掌握在像 OpenAI 这样的私营营利性公司手中,而一些人担心这种权力集中在极少数人手中。这些担忧在 11 月份蔓延到了 OpenAI 董事会,当时 Altman 被解除了首席执行官职务——部分原因是出于安全考虑——几天后又恢复了职位。

埃利奥特大学教授、哈佛大学名誉校长拉里·萨默斯在危机后被任命为新董事会成员,大概是为了加深其领导经验。

在演讲前接受《哈佛杂志》和其他出版物采访时,奥尔特曼谈到了私营部门发展人工智能的挑战。

「我认为人工智能开发在私营企业中发生是令人兴奋的。」他说,「但在不同的时间或不同的世界格局中,它会发生在政府中。既然事实并非如此,政府和行业之间的共同理解就很重要。他说,现在,对于未来几年人工智能的进展,这两个群体之间存在太大差异。」

4 月下旬,Altman 加入了国土安全部的人工智能安全与安保委员会,以帮助促进这些对话。

尽管如此,Altman 在演讲中表示,如果他能回到 2015 年,当时他与他人共同创立了 OpenAI,他将把它作为一家营利性公司开始,而不是像该组织在 2019 年之前那样作为非营利组织。

OpenAI网站称,人工智能需要太多资源,无法通过非营利模式来维持。

随着向利润驱动结构的转变,OpenAI 变得闭源:其底层代码和实现细节不向公众公开。这使得学术界的许多人无法研究该模型,研究人员已转向采取变通措施,例如分析 ChatGPT 输出中的模式。

在回答《哈佛杂志》关于这些挑战的问题时, Altman 表示 OpenAI 已经开展了学术合作:举个例子,我们为学术研究人员提供了访问 GPT-4 基本模型权重的权限,尽管目前还没有公开的信息。但寻找与学术界合作和解锁学术界的方法似乎非常重要,因为没有更好的词来形容。

学院中一些人寻求解决的一个问题是人工智能模型如何产生输出。 ChatGPT 的内部机制目前尚不清楚,尽管学术研究人员正在研究这个问题,但特别是对于闭源的 ChatGPT 来说,这样做很困难。一些人认为,在开发自主模型或在医疗保健等高风险环境中应用人工智能之前,了解这些机制非常重要。

「我们正在追求它。我没有任何具体信息,比如,我们已经破解了它。」Altman 向《哈佛杂志》谈到 OpenAI 是否也在研究这个问题时说道。但完全理解”ChatGPT 如何产生输出可能不是一个可行的目标。

他说:我认为我们可以以重要的方式理解这些系统吗?是的,我可以说我们能够准确理解每个人工神经元在做什么吗?我不知道。但我什至不确定这是否是值得关注的正确问题。

与此同时,利润动机继续推动进步。奥特曼在纪念教堂的谈话结束后,他听取了八个由哈佛和麻省理工学院学生组成的团队的演讲——从近千份提交的材料中预先选出——作为赢得 Xfund 10 万美元投资的竞赛的一部分。


巴菲特为什么说人工智能是原子弹

巴菲特将人工智能的崛起与原子弹相提并论,这一观点值得理解和重视:1. 人工智能具有极大的潜在破坏力。 一旦人工智能系统出现失控,可导致难以预料的严重后果,这点与原子能相似。 因此人工智能的发展也需要适当监管和限制,防止技术失控。 2. 人工智能可能产生不可预测的巨大影响。 正如原子弹的出现改变了整个时代的战争模式,人工智能也有可能极大地改变人类生活方式、职业结构等,这会产生深远而难以预测的社会影响。 我们需要提前作好准备,积极引导其发展方向。 3. 两者都属于轻易可得且具高损伤性的技术。 一旦某个组织掌握了人工智能或原子弹等技术,将具有相当大的破坏力,这使其易于被滥用或误用。 因此,这些技术的监控和使用都需要高度审慎与责任。 4. 两者的出现都代表了人类科技进步到一个新的阶段,但也对人类生存和发展提出新的挑战。 我们必须密切关注其进展,并作出相应地制度和思维准备,以确保技术变革的积极影响大于消极影响。 然而,人工智能与原子弹也存在一定差异:1. 人工智能是一般技术,其破坏力更加难以定义和判断。 原子弹的伤害性更加直接和具体。 2. 人工智能更难以监管和管控,因为其范围更广,渗透更深,且许多应用在个体手中。 原子武器的研发和拥有更易于监视。 3. 人工智能的影响将是渐进的,而原子弹的影响突然产生并引发现代战争模式的剧变。 这使社会更难以与之相适应。 所以,尽管两者在一定程度上具有可比性,但人工智能的影响更加复杂深远,这使我们在思考和应对人工智能发展时,不能简单类比原子弹,需要进一步理解人工智能自身的特点,作出系统而审慎的判断与准备。 人工智能管理既需要参考原子能管理的经验,也需要因其特性而制定全新的方针与策略。

日本学生害怕被AI取代而自杀,AI技术真的可能完全取代人工吗?

虽然人工智能(AI)技术在各个领域呈现出了惊人的发展和进步,但是不可能完全取代人工的,原因如下:

首先,人工智能技术目前在某些领域确实已经取得了令人瞩目的成果,例如在图像识别、语音识别和自动驾驶等领域。然而,这些技术主要是基于数据的模式识别和分析,相对来说更适用于重复性高、规律性强的任务。对于涉及复杂判断、人情世故、创造性思维和情感交流等方面的任务,AI技术还很难达到人类的水平。

其次,人工智能虽然能够处理大量的数据和信息,但是缺乏人类的情感和创造力。对于许多需要情感交流和人际关系的工作,AI技术无法与人工相提并论。例如,医生、教师、心理咨询师、艺术家等职业都需要与人进行情感交流和人际关系的建立,这是AI难以替代的。

此外,人工智能技术的发展也受限于其数据训练的局限性。AI系统需要大量的数据进行训练和学习,然而,对于一些特殊领域或者较为复杂的任务,数据的获取和准备会面临困难。而且,AI系统也容易受到数据偏见的影响,导致结果的不准确和不公平。

最后,人工智能技术的发展还面临伦理和法律问题。由于AI系统是基于算法和数据驱动的,其决策过程可能缺乏透明性和可解释性。这可能导致对于一些重要决策的责任和监督问题。同时,AI技术也涉及到个人隐私和信息安全的问题,需要相关的法律和道德规范来规范和保护使用者的合法权益。

综上所述,虽然人工智能技术在某些领域已经取得了重大突破,但完全取代人工的可能性仍然相对较低。AI技术目前主要用于处理重复性高、规律性强的任务,无法替代涉及复杂判断、创造性思维和情感交流等方面的工作。此外,数据训练的局限性、伦理和法律问题等也限制了人工智能技术的发展。因此,担心被AI取代并自杀的问题应该以科学审视和正确引导的方式来解决,既要充分利用和发展人工智能技术的优势,又要保护和维护人类的价值和尊严。

超级人工智能派对开始了:黄仁勋奥特曼马斯克现GOAT之争

2024年春季,人类是否正在吹起一个前所未有的超级人工智能泡沫,还是开启一个远超工业革命的大繁荣周期,无论是黄仁勋、还是奥特曼和马斯克都是乐观的一方。 马斯克略带伤感的回忆8年前黄仁勋向OpenAI赠送Ai系统的一幕,是他无奈的接受超级人工智能的路线之争刚刚开始。 黄仁勋一口答应了马斯克,并亲自将DGX-1送上门。 同时他在机器上写了一段话:“To Elon & OpenAI Team!To the Future of Computing and Humanity. Present You The Worlds First DGX-1!”(献给马斯克和OpenAI团队,为了算力的未简隐来和人类,我们将全球首款DGX-1做为礼物送给你们!)随后马斯克回敬写道:谢谢!黄仁勋被认为比马斯克更有远见,已是史上最佳AGI生成式人工智能,特别是SORA的出现不仅引发了资本的狂热,也引发了恐慌。 人工智能被认为正来到超级人工智能时代,甚至人类社会生活也被认为已经走到了一个奇点时刻,旧有秩序面临崩溃。 狂热如三大洲的主要股指在同一时间悉数创下历史新高,而华尔街日报将原因归于英伟达2024财年四季报的发布。 英伟达的大涨,固然与其超预期的2024财年四季报有关,但更多的是SORA的横空出世带给世界的恐慌:被甩下车的恐慌,被拥超级人工智能的组织和政治实体在技术上降维碾压的恐慌。 中美两国的主流技术人员和媒体都在估算两国的技术差距在三至四年之间。 黄仁勋在回应奥特曼的天文数字融资规模时说:“如果你认为计算机无法发展得更快,可能会得出这样的结论:我们需要14颗行星、3个星系和4个太阳来为这一切提供燃料。 但是,计算机架构其实在不断地进步。 ”对于咨询公司预测2029年全【本文来自易车号作者智驾网,版权归作者所有,任何形式转载请联系作者。 内容仅代表作者观点,与易车无关】

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://srwj168.com.cn/keji312/1934.html
实至名归!官方 福登当选足球记者协会年度最佳球员
每个细节都很有设计感! 北欧风 79㎡