机器人形态不止马斯克宣传的人形 张钹院士 中国发展AI应更重视知识和算法

出品 | 搜狐科技

作者 | 梁昌均

“我们应该更加重视知识和算法,当然也要在算力和数据上努力去追赶。”在ISC.AI2024人工智能峰会上,中国科学院院士、清华大学教授张钹谈到发展第三代人工智能时强调。

他认为,信息产业的发展过程和人工智能的发展过程非常不一样,前者持续高速,而人工智能则是缓慢曲折,原因是人工智能还没有自己的理论,只有模型和算法,且都是专用,因此现在还没有发展出来大规模的人工智能产业。

张钹提到,第一代人工智能是以知识为基础的模型,主要利用知识、算法、算力三个要素。第二代人工智能是数据驱动,三要素是数据、算法、算力。

“这两个模型都是有三个特定的限制,就是在特定的领域利用特定模型解决特定的任务。由于这三个特定的限制,这两个阶段发展出来的人工智能是属于专用人工智能或者弱人工智能。”张钹认为,生成式人工智能时代的AI产业,需要加速发展第三代人工智能。

对于目前火爆的大模型,张钹认为,在考虑基础模型的时候,需要考虑它的三大能力和一大缺陷,即强大的语言生成能力、强大的自然语言对话能力,以及强大的举一反三能力,以及存在幻觉、会胡说八道的缺陷。

“这一大缺陷跟三大能力是同时出现,因为我们要求它有多样性的输出,必然会产生错误,而且这个错误是本质的错误,不可避免,我们不可控。”张钹表示。

从产业发展来看,张钹认为,将来做通用大模型肯定是少数的企业,绝大部分企业主要是三个方向:做垂直领域的大模型,利用开源或闭源模型去做微调开发,以及跟其它工具和技术结合起来,开发新的应用。

张钹认为,现在大模型在应用中会表现出来三个人类没有的缺点:不可控、不可信、不鲁棒,这受外部的影响非常大,导致机器在很多情况下没有判断对错的能力,从而不能自我更新,因为现在所有的人工智能的所有更新进化都是在人类的驱动和帮助之下。

如何解决这些问题,张钹提到了四个方向。一是要做AI对齐,人类帮助它进行改进,就是与人类对齐,需要外部的提示;其次是多模态生成,这对产业发展非常重要,最本质的是文本处理的突破,图像、语音、视频等要做好都需要跟文本挂钩。

第三就是智能体非常重要,必须要把大模型跟周围的环境结合起来,让环境起到提示它的作用,从而实现智能体任意生成。最后就是具身智能,要让大模型与物理世界交互。

“将来如何发展通用的机器人?我认为应该是软件通用,硬件应该多样化。”张钹认为,现在马斯克宣传人形机器人,这当然是重要的一个方面,但将来不止于人形,不同的工作环境下还是需要不同的硬件,所以硬件应该多样化。

他认为,这些方向最重要的是要引入强化学习,要让人工智能在实践的过程中间不断去改进,不断去更新,对硬件、软件都是这样。

张钹认为,发展第三代人工智能有三个重要思想:首先要构建可解释和鲁棒性的AI理论和方法,能够解释所谓的涌现现象;二是要发展安全、可控、可信、可靠和可拓展的AI技术;三是要推动AI的创新应用和产业化。

他强调,第三代人工智能必须把四个要素充分利用起来,包括知识、数据、算法、算力。

“目前美国宣传的是数据、算力和算法,数据和算力放在第一位,然后是算法,根本不提知识。因为他们的数据、算力比我们强得多,所以每次有成果出来都要秀这两个肌肉。”张钹认为,我们应该发挥知识和算法的作用,需要把知识从数据中剥离出来。

“当然我们也要重视数据,因为机器的数据能力很强。我们强调数据是强调机器的作用,我们强调知识是强调人类的作用,我们认为人类的作用要比机器的作用更加重要。”张钹表示。

张钹还强调,中国在算法和算力上面,应该努力去发展算法,这方面我们国家的工作应该比美国做得更深入。“我们没办法,只能在算法上加工。如果学习算法或推理算法能够提高一个数量级,我们所需要的算力会减少十倍。”


人工智能是否会威胁到伦理和法律

人工智能如果不加以控制,很有可能威胁到伦理法律。 在技术高歌猛进的同时,人工智能不断模糊着物理世界和个人的界限,不断刷新人的认知和社会关系,延伸出复杂的伦理、法律和安全问题,但相应的规范和制度设计还存在盲区,这是一个极大的挑战。

为构建一个人工智能健康发展的伦理和法律环境,来自自然科学、人文社会科学领域的专家学者和产业界人士聚集在一起,尝试跨越学科的鸿沟,寻找共同的交集,研讨人工智能最基本的问题。

“这让人欢欣鼓舞,也令人担忧。 ”张钹的“忧”,指的是基于深度学习的人工智能系统存在的根本性缺陷——不可解释和不可理解,就事论事,缺乏推广能力,遇到新的情况一筹莫展等。 因此当面对动态变化的环境,信息不完全、存在干扰与虚假信息时,人工智能系统性能就会显著下降。

“当前的人工智能与人类智能本质上是不同的。 ”张钹说,与人类相比,人工智能系统抗干扰能力(鲁棒性)差,推广能力弱,甚至可能犯大错。 “基于深度学习的模式识别系统尽管可以准确地区分不同事物,但本质上不认识它们。 与人类不一样,它不会举一反三,更不会‘知其所以然’。 使用这样的人工智能系统需要十分小心。 ”

“现在大家对人工智能有无限期待。 围棋有规则,现实生活中没有规则。 人工智能产品完成单项任务很牛,但遇到复杂情况,实际没那么厉害。 ”海尔公司CTO赵峰认为。

人工智能可怕吗?远虑尚“远”,近忧在即

人工智能会威胁人类吗?马斯克、霍金、扎克伯格科技和产业界的大腕对此的争论和互怼一直没有停歇。

参加香山科学会议的科学家认为,人工智能威胁论拥趸者所指的“强人工智能”到来还比较远,现在发展的多是擅长完成单项任务的“弱人工智能”。 “人工智能还在生长发展过程中,是否造成威胁估计是下一代科学家面临的问题,我们现在的任务是把它‘养大’。 ”不过,中科院院士何积丰也坦承,现在人工智能也有“内忧外患”,如无人机黑飞乱飞管理乱象,恐怖主义黑客攻击等。

“世界上没有免费的午餐,机器通过‘黑箱’学习(深度学习)方法取得的智能,由于与人类认知行为存在根本差异,因此也将带来潜在的风险。”张钹说,人工智能全面超越人类智能并出现自我意识,是危险的,不过这是远虑;但其不可解释性会带来“近忧”,如将深度学习应用于军事决策,万一系统出现原则性决策失误怎么办?

人类准备好了吗?远远没有,急需跟进

“人类现有的概念框架及知识储备难以应对人工智能带来的影响,也使我们不得不面对‘制度性风险’。 ”李真真说,人工智能技术的社会应用迅速改变了人类的生存环境,重塑人的行为,也不断挑战诸如隐私、责任等概念内涵及其既有策略。

李真真以“隐私”举例说,传统法律上,隐私是一种权利的概念,但现在它还可以是一种商品,即我们让出一部分个人的隐私或信息以换取服务和产品,这就需要法律的及时跟进。 再有,匿名化技术的发展为隐私保护提供了新的工具,但如果对于匿名化数据的法律概念和认定标准上没有明确规定,很可能会导致数据的滥用。 同时,隐私保护与国家安全、商业利益如何平衡,也是问题。 再比如“责任”,比较典型的就是自动驾驶系统的责任认定。 “还有人工智能的预测或决策,如预测犯罪,这将使我们面对一个更为复杂的法律问题。 ”

“法律具有滞后性,这就要求我们不断地根据出现的新情况和新的社会难题,对人工智能带来的影响进行伦理评估,以保障相关法律和政策的及时跟进。 ”李真真说。

人机可以和谐共处吗?嵌入伦理法律框架是最大的科学挑战

人工智能是否会产生歧视?答案是肯定的,这可以体现在数据选择和算法上。

有科学家研究,通过使用机器学习算法帮助银行提供接受还是拒绝房贷的建议,无论如何,在审查神经网络决策制定流程的结果时,发现黑人申请的批准率大大低于白人申请的批准率。

这就是人工智能工具存在的“黑箱”般的不透明性。

“人机关系中,智能机器与人类的价值观和规范体系必须一致。 ”李真真说,如何将人类的价值观和规范嵌入人工智能系统,赋予AI以人性的光辉,成为当前所面临最现实的挑战。

前有科幻小说家阿西莫夫著名的机器人学三大定律,近年来,国际人工智能界日益重视人工智能中的伦理与法律问题,并推动相关技术标准及社会规范的研讨和制定,如IEEE全球人工智能与伦理倡议、阿西洛马人工智能23条伦理原则,我国的《新一代人工智能发展规划》也专门提出人工智能伦理与法律的三步走规划。 “但是,将伦理与法律要求嵌入到AI系统,仍是全世界前沿性的科学难题,这需要技术、伦理、法律等控制手段配合使用、高度融合和跨学科合作。 ”李真真说。

“智能机器不是代替人,而是要协助人做好工作。 人和机器各有优势,要互相了解才能实现人机协作,但人还是人机关系的主导者。 依照这种思想,才可能将人工智能引向人机合作的发展道路。 ”张钹说。

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://m.srwj168.com.cn/keji312/5732.html
这三点 会影响孩子的一生 夜读
第10金!刘宇坤稳定发挥 男子50米气步枪三姿夺冠