中国发展AI应更重视知识和算法 机器人形态不止马斯克宣传的人形 张钹院士

出品 | 搜狐科技

作者 | 梁昌均

“我们应该更加重视知识和算法,当然也要在算力和数据上努力去追赶。”在ISC.AI2024人工智能峰会上,中国科学院院士、清华大学教授张钹谈到发展第三代人工智能时强调。

他认为,信息产业的发展过程和人工智能的发展过程非常不一样,前者持续高速,而人工智能则是缓慢曲折,原因是人工智能还没有自己的理论,只有模型和算法,且都是专用,因此现在还没有发展出来大规模的人工智能产业。

张钹提到,第一代人工智能是以知识为基础的模型,主要利用知识、算法、算力三个要素。第二代人工智能是数据驱动,三要素是数据、算法、算力。

“这两个模型都是有三个特定的限制,就是在特定的领域利用特定模型解决特定的任务。由于这三个特定的限制,这两个阶段发展出来的人工智能是属于专用人工智能或者弱人工智能。”张钹认为,生成式人工智能时代的AI产业,需要加速发展第三代人工智能。

对于目前火爆的大模型,张钹认为,在考虑基础模型的时候,需要考虑它的三大能力和一大缺陷,即强大的语言生成能力、强大的自然语言对话能力,以及强大的举一反三能力,以及存在幻觉、会胡说八道的缺陷。

“这一大缺陷跟三大能力是同时出现,因为我们要求它有多样性的输出,必然会产生错误,而且这个错误是本质的错误,不可避免,我们不可控。”张钹表示。

从产业发展来看,张钹认为,将来做通用大模型肯定是少数的企业,绝大部分企业主要是三个方向:做垂直领域的大模型,利用开源或闭源模型去做微调开发,以及跟其它工具和技术结合起来,开发新的应用。

张钹认为,现在大模型在应用中会表现出来三个人类没有的缺点:不可控、不可信、不鲁棒,这受外部的影响非常大,导致机器在很多情况下没有判断对错的能力,从而不能自我更新,因为现在所有的人工智能的所有更新进化都是在人类的驱动和帮助之下。

如何解决这些问题,张钹提到了四个方向。一是要做AI对齐,人类帮助它进行改进,就是与人类对齐,需要外部的提示;其次是多模态生成,这对产业发展非常重要,最本质的是文本处理的突破,图像、语音、视频等要做好都需要跟文本挂钩。

第三就是智能体非常重要,必须要把大模型跟周围的环境结合起来,让环境起到提示它的作用,从而实现智能体任意生成。最后就是具身智能,要让大模型与物理世界交互。

“将来如何发展通用的机器人?我认为应该是软件通用,硬件应该多样化。”张钹认为,现在马斯克宣传人形机器人,这当然是重要的一个方面,但将来不止于人形,不同的工作环境下还是需要不同的硬件,所以硬件应该多样化。

他认为,这些方向最重要的是要引入强化学习,要让人工智能在实践的过程中间不断去改进,不断去更新,对硬件、软件都是这样。

张钹认为,发展第三代人工智能有三个重要思想:首先要构建可解释和鲁棒性的AI理论和方法,能够解释所谓的涌现现象;二是要发展安全、可控、可信、可靠和可拓展的AI技术;三是要推动AI的创新应用和产业化。

他强调,第三代人工智能必须把四个要素充分利用起来,包括知识、数据、算法、算力。

“目前美国宣传的是数据、算力和算法,数据和算力放在第一位,然后是算法,根本不提知识。因为他们的数据、算力比我们强得多,所以每次有成果出来都要秀这两个肌肉。”张钹认为,我们应该发挥知识和算法的作用,需要把知识从数据中剥离出来。

“当然我们也要重视数据,因为机器的数据能力很强。我们强调数据是强调机器的作用,我们强调知识是强调人类的作用,我们认为人类的作用要比机器的作用更加重要。”张钹表示。

张钹还强调,中国在算法和算力上面,应该努力去发展算法,这方面我们国家的工作应该比美国做得更深入。“我们没办法,只能在算法上加工。如果学习算法或推理算法能够提高一个数量级,我们所需要的算力会减少十倍。”


人工智能是否会威胁到伦理和法律?

人工智能如果不加以控制,很有可能威胁到伦理法律。 在技术高歌猛进的同时,人工智能不断模糊着物理世界和个人的界限,不断刷新人的认知和社会关系,延伸出复杂的伦理、法律和安全问题,但相应的规范和制度设计还存在盲区,这是一个极大的挑战。

为构建一个人工智能健康发展的伦理和法律环境,来自自然科学、人文社会科学领域的专家学者和产业界人士聚集在一起,尝试跨越学科的鸿沟,寻找共同的交集,研讨人工智能最基本的问题。

“这让人欢欣鼓舞,也令人担忧。 ”张钹的“忧”,指的是基于深度学习的人工智能系统存在的根本性缺陷——不可解释和不可理解,就事论事,缺乏推广能力,遇到新的情况一筹莫展等。 因此当面对动态变化的环境,信息不完全、存在干扰与虚假信息时,人工智能系统性能就会显著下降。

“当前的人工智能与人类智能本质上是不同的。 ”张钹说,与人类相比,人工智能系统抗干扰能力(鲁棒性)差,推广能力弱,甚至可能犯大错。 “基于深度学习的模式识别系统尽管可以准确地区分不同事物,但本质上不认识它们。 与人类不一样,它不会举一反三,更不会‘知其所以然’。 使用这样的人工智能系统需要十分小心。 ”

“现在大家对人工智能有无限期待。 围棋有规则,现实生活中没有规则。 人工智能产品完成单项任务很牛,但遇到复杂情况,实际没那么厉害。 ”海尔公司CTO赵峰认为。

人工智能可怕吗? 远虑尚“远”,近忧在即

人工智能会威胁人类吗?马斯克、霍金、扎克伯格……科技和产业界的大腕对此的争论和互怼一直没有停歇。

参加香山科学会议的科学家认为,人工智能威胁论拥趸者所指的“强人工智能”到来还比较远,现在发展的多是擅长完成单项任务的“弱人工智能”。 “人工智能还在生长发展过程中,是否造成威胁估计是下一代科学家面临的问题,我们现在的任务是把它‘养大’。 ”不过,中科院院士何积丰也坦承,现在人工智能也有“内忧外患”,如无人机黑飞乱飞管理乱象,恐怖主义黑客攻击等。

“世界上没有免费的午餐,机器通过‘黑箱’学习(深度学习)方法取得的智能,由于与人类认知行为存在根本差异,因此也将带来潜在的风险。”张钹说,人工智能全面超越人类智能并出现自我意识,是危险的,不过这是远虑;但其不可解释性会带来“近忧”,如将深度学习应用于军事决策,万一系统出现原则性决策失误怎么办?

人类准备好了吗? 远远没有,急需跟进

“人类现有的概念框架及知识储备难以应对人工智能带来的影响,也使我们不得不面对‘制度性风险’。 ”李真真说,人工智能技术的社会应用迅速改变了人类的生存环境,重塑人的行为,也不断挑战诸如隐私、责任等概念内涵及其既有策略。

李真真以“隐私”举例说,传统法律上,隐私是一种权利的概念,但现在它还可以是一种商品,即我们让出一部分个人的隐私或信息以换取服务和产品,这就需要法律的及时跟进。 再有,匿名化技术的发展为隐私保护提供了新的工具,但如果对于匿名化数据的法律概念和认定标准上没有明确规定,很可能会导致数据的滥用。 同时,隐私保护与国家安全、商业利益如何平衡,也是问题。 再比如“责任”,比较典型的就是自动驾驶系统的责任认定。 “还有人工智能的预测或决策,如预测犯罪,这将使我们面对一个更为复杂的法律问题。 ”

“法律具有滞后性,这就要求我们不断地根据出现的新情况和新的社会难题,对人工智能带来的影响进行伦理评估,以保障相关法律和政策的及时跟进。 ”李真真说。

人机可以和谐共处吗? 嵌入伦理法律框架是最大的科学挑战

人工智能是否会产生歧视?答案是肯定的,这可以体现在数据选择和算法上。

有科学家研究,通过使用机器学习算法帮助银行提供接受还是拒绝房贷的建议,无论如何,在审查神经网络决策制定流程的结果时,发现黑人申请的批准率大大低于白人申请的批准率。

这就是人工智能工具存在的“黑箱”般的不透明性。

“人机关系中,智能机器与人类的价值观和规范体系必须一致。 ”李真真说,如何将人类的价值观和规范嵌入人工智能系统,赋予AI以人性的光辉,成为当前所面临最现实的挑战。

前有科幻小说家阿西莫夫著名的机器人学三大定律,近年来,国际人工智能界日益重视人工智能中的伦理与法律问题,并推动相关技术标准及社会规范的研讨和制定,如IEEE全球人工智能与伦理倡议、阿西洛马人工智能23条伦理原则,我国的《新一代人工智能发展规划》也专门提出人工智能伦理与法律的三步走规划。 “但是,将伦理与法律要求嵌入到AI系统,仍是全世界前沿性的科学难题,这需要技术、伦理、法律等控制手段配合使用、高度融合和跨学科合作。 ”李真真说。

“智能机器不是代替人,而是要协助人做好工作。 人和机器各有优势,要互相了解才能实现人机协作,但人还是人机关系的主导者。 依照这种思想,才可能将人工智能引向人机合作的发展道路。 ”张钹说。

人工智能是否会威胁到伦理和法律

人工智能如果不加以控制,很有可能威胁到伦理法律。 在技术高歌猛进的同时,人工智能不断模糊着物理世界和个人的界限,不断刷新人的认知和社会关系,延伸出复杂的伦理、法律和安全问题,但相应的规范和制度设计还存在盲区,这是一个极大的挑战。

为构建一个人工智能健康发展的伦理和法律环境,来自自然科学、人文社会科学领域的专家学者和产业界人士聚集在一起,尝试跨越学科的鸿沟,寻找共同的交集,研讨人工智能最基本的问题。

“这让人欢欣鼓舞,也令人担忧。 ”张钹的“忧”,指的是基于深度学习的人工智能系统存在的根本性缺陷——不可解释和不可理解,就事论事,缺乏推广能力,遇到新的情况一筹莫展等。 因此当面对动态变化的环境,信息不完全、存在干扰与虚假信息时,人工智能系统性能就会显著下降。

“当前的人工智能与人类智能本质上是不同的。 ”张钹说,与人类相比,人工智能系统抗干扰能力(鲁棒性)差,推广能力弱,甚至可能犯大错。 “基于深度学习的模式识别系统尽管可以准确地区分不同事物,但本质上不认识它们。 与人类不一样,它不会举一反三,更不会‘知其所以然’。 使用这样的人工智能系统需要十分小心。 ”

“现在大家对人工智能有无限期待。 围棋有规则,现实生活中没有规则。 人工智能产品完成单项任务很牛,但遇到复杂情况,实际没那么厉害。 ”海尔公司CTO赵峰认为。

人工智能可怕吗?远虑尚“远”,近忧在即

人工智能会威胁人类吗?马斯克、霍金、扎克伯格科技和产业界的大腕对此的争论和互怼一直没有停歇。

参加香山科学会议的科学家认为,人工智能威胁论拥趸者所指的“强人工智能”到来还比较远,现在发展的多是擅长完成单项任务的“弱人工智能”。 “人工智能还在生长发展过程中,是否造成威胁估计是下一代科学家面临的问题,我们现在的任务是把它‘养大’。 ”不过,中科院院士何积丰也坦承,现在人工智能也有“内忧外患”,如无人机黑飞乱飞管理乱象,恐怖主义黑客攻击等。

“世界上没有免费的午餐,机器通过‘黑箱’学习(深度学习)方法取得的智能,由于与人类认知行为存在根本差异,因此也将带来潜在的风险。”张钹说,人工智能全面超越人类智能并出现自我意识,是危险的,不过这是远虑;但其不可解释性会带来“近忧”,如将深度学习应用于军事决策,万一系统出现原则性决策失误怎么办?

人类准备好了吗?远远没有,急需跟进

“人类现有的概念框架及知识储备难以应对人工智能带来的影响,也使我们不得不面对‘制度性风险’。 ”李真真说,人工智能技术的社会应用迅速改变了人类的生存环境,重塑人的行为,也不断挑战诸如隐私、责任等概念内涵及其既有策略。

李真真以“隐私”举例说,传统法律上,隐私是一种权利的概念,但现在它还可以是一种商品,即我们让出一部分个人的隐私或信息以换取服务和产品,这就需要法律的及时跟进。 再有,匿名化技术的发展为隐私保护提供了新的工具,但如果对于匿名化数据的法律概念和认定标准上没有明确规定,很可能会导致数据的滥用。 同时,隐私保护与国家安全、商业利益如何平衡,也是问题。 再比如“责任”,比较典型的就是自动驾驶系统的责任认定。 “还有人工智能的预测或决策,如预测犯罪,这将使我们面对一个更为复杂的法律问题。 ”

“法律具有滞后性,这就要求我们不断地根据出现的新情况和新的社会难题,对人工智能带来的影响进行伦理评估,以保障相关法律和政策的及时跟进。 ”李真真说。

人机可以和谐共处吗?嵌入伦理法律框架是最大的科学挑战

人工智能是否会产生歧视?答案是肯定的,这可以体现在数据选择和算法上。

有科学家研究,通过使用机器学习算法帮助银行提供接受还是拒绝房贷的建议,无论如何,在审查神经网络决策制定流程的结果时,发现黑人申请的批准率大大低于白人申请的批准率。

这就是人工智能工具存在的“黑箱”般的不透明性。

“人机关系中,智能机器与人类的价值观和规范体系必须一致。 ”李真真说,如何将人类的价值观和规范嵌入人工智能系统,赋予AI以人性的光辉,成为当前所面临最现实的挑战。

前有科幻小说家阿西莫夫著名的机器人学三大定律,近年来,国际人工智能界日益重视人工智能中的伦理与法律问题,并推动相关技术标准及社会规范的研讨和制定,如IEEE全球人工智能与伦理倡议、阿西洛马人工智能23条伦理原则,我国的《新一代人工智能发展规划》也专门提出人工智能伦理与法律的三步走规划。 “但是,将伦理与法律要求嵌入到AI系统,仍是全世界前沿性的科学难题,这需要技术、伦理、法律等控制手段配合使用、高度融合和跨学科合作。 ”李真真说。

“智能机器不是代替人,而是要协助人做好工作。 人和机器各有优势,要互相了解才能实现人机协作,但人还是人机关系的主导者。 依照这种思想,才可能将人工智能引向人机合作的发展道路。 ”张钹说。

人工智能的发展前景如何?

中国人工智能技术起步较晚,但是发展迅速,目前在专利数量以及企业数量等指标上已经处于世界领先地位。 2013-2018年,全球人工智能领域的论文文献产出共30.5万篇,其中,中国发表7.4万篇,美国发表5.2万篇。 在数量占比方面,2017年中国人工智能论文数量占比全球已经达27.7%。 当前中美两国之间人工智能科研论文合作规模最大,是全球人工智能合作网络的中心,中美两国合作深刻影响全球人工智能发展。 2019年中国AI芯片市场规模约为115.5亿元,在5G商用的普及和政策、技术等各因素的推动下,AI芯片有望在云计算、安防、消费电子、机器人等领域实现大规模商用,预计2021年AI芯片市场规模将达到436.8亿元。 但值得注意的是,随着人工智能技术的加速普及,下游应用领域对AI算力和能耗的要求越来越高,传统冯诺依曼架构式芯片的瓶颈逐渐显露,AI芯片将朝着存算一体化方向发展。 有分析师认为,存算一体AI芯片的发展前景虽受到广泛认可,但整体仍处在发展的起步阶段。 从实现计算与存储的融合设计,到技术的落地、量产、规模化商用,还有较长阶段。 能够率先实现技术、产品突破的企业将更容易获得资本、人才、市场的支持。 世纪浪人:智慧筑基,源聚强国,深度分析中国人工智能发展概况我国人工智能发展全球论文占比情况(数据来源:艾媒数据中心)相关调查机构数据显示, 截至2017年12月31日,中国人工智能专利申请数达件。 随着国家大力提倡、投入研发逐渐增加,人工智能运用到越来越多的行业领域,未来相关专利数量应当会持续增加,人工智能技术产业化发展前景向好。 世纪浪人:智慧筑基,源聚强国,深度分析中国人工智能发展概况截止2017年我国人工智能专利申请数量(数据来源:艾媒数据中心)2018年中国人工智能领域共融资1311亿元,增长率超过100%,投资者看好人工智能行业的发展前景,资本将助力行业更好地发展。 随着人工智能技术的进一步发展和落地,深度学习、数据挖掘、自动程序设计等领域也将在更多的应用场景中得到实现,人工智能技术产业化发展前景向好。 1.中国步入技术驱动增长的高质量发展阶段,政策将持续加码推动芯片全面国产化中国数字经济产业已经成为驱动经济增长的新动能,2019年数字经济规模占GDP的比重达36.2%;作为数字经济产业底层基础的集成电路,却严重依赖进口,2020年前八个月,中国集成电路进口金额超过万亿元;未来政策将持续加码发展集成电路产业,实现芯片全面国产化。 2.中国AI芯片有望引领国产芯片实现弯道超车,预计2023年中国AI芯片市场规模将突破千亿元5G基站、大数据中心、人工智能等新型基础建设的完善,促使AI芯片成为引领芯片行业未来发展的重要方向;政策、资本、技术、市场等多重因素将驱动AI芯片这一新赛道快速发展,中国芯片有望实现弯道超车;预计2023年中国AI芯片市场规模将超过千亿元。 3.存算一体化AI芯片是未来主流方向,受益于下游需求的强劲驱动力而快速发展人工智能产业的成熟化发展驱动AI芯片由通用型向专用型发展,急剧增长的数据量对AI芯片的性能以及能耗提出了更高要求;能够兼具性能和成本的存算一体化AI芯片符合未来发展趋势,在下游需求的推动下有望快速发展。 世纪浪人:智慧筑基,源聚强国,深度分析中国人工智能发展概况AI芯片概念描述直观图(来源:艾媒咨询)人工智能,作为计算机科学最前沿的发展方向,同时也是新一轮产业变革的核心驱动力,具有巨大的市场前景。 面向人工智能应用的AI算法,除具有传统算法一般的性能特征,还具备处理大量非结构化数据、处理过程计算量大、参数量大等新特质,亟须强大的运算能力和高效的访存能力支撑。 世纪浪人:智慧筑基,源聚强国,深度分析中国人工智能发展概况人工智能相关学科及关联关系(来源:艾媒咨询)4.中国人工智能未来热度持续目前中国整个人工智能产业规模仍在保持增长,同时国家也在不断出台各类人工智能产业扶持政策,资本市场对人工智能行业的投资热情不减,技术方面不断突破是产业增长的核心驱动力。 未来人工智能产业的走向取决于算法的进步,由于算法的技术突破是决定人工智能上限的,所以未来人工智能企业拉开差距就在算法的技术突破上,谁能先在算法上取得成功,谁就能取得资本市场青睐,同时产业落地也会进一步提速。 在算法方面,目前已经有深度学习和神经网络这样优秀的模型,但就目前国内人工智能算法的总体发展而言,工程学算法虽已取得阶段性突破,但基于认知层面的算法水平还亟待提高,这也是未来竞争的核心领域。 虽然算法决定人工智能上限,但是目前的算法短时间内可能很难有所突破,所以算力也是目前人工智能企业竞争的一个重点方向,以目前的算力水平,主要实现商业化的人工智能技术为计算机视觉、智能语音等,未来若算力进一步突破包括算力的提升、生产成本的降低都会使人工智能技术的产业化进一步深入。

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://m.srwj168.com.cn/keji312/6041.html
暨北京市网络文明宣传季启动 2024年 北京文化网络传播活动
曾当过电台主播 温州美女网红交警离职 发文称决定换个视角看世