李飞飞 扼杀创新 呼吁监管应用而不是技术 毁坏开源 吴恩达反对加州AI法案

出品|搜狐科技

作者|郑松毅

编辑|杨锦

AI究竟该如何监管?李飞飞、吴恩达等AI大佬,正在与美国立法机构展开较量。

是“解药”还是“毒药”?

近日,一个名为“SB-1047” 的AI监管法案成为焦点,引来众多AI大佬不满。

就在昨日,李飞飞亲自撰文提出抗议,加州大学7个校区的师生及其他机构研究人员起草并签署联名信企图阻止法案通过。

该法案全称为《前沿人工智能模型安全创新法案》(以下简称“法案”),旨在为AI模型树立安全标准,明确责任划分,以防止AI滥用带来的灾难性后果。

《法案》最初于2月份在参议院被提出,几经修改后,很多AI科学家仍认为该《法案》条款存在极大不合理性,或将对AI发展产生不利影响。

根据《法案》,受重点监管的AI模型范围包括使用超过 10^26 次整数或浮点运算的计算能力进行训练的人工智能模型,其成本超过一亿美元。

同时,利用等于或大于 10^25 次整数或浮点运算三倍的计算能力,对范围内的模型进行微调而创建的人工智能模型也在监管范围内。

简单来说, 当前市场上的主流AI大模型几乎都被包含在内,需接受“重点照顾”

另外,《法案》直接要求开发者对模型开发及后续衍生应用承担法律责任。

“在模型正式发布前,开发者应保证模型处于未经许可禁止访问状态,并保证模型在发布后不会对社会造成严重损害。”

“如在安全风险评估中发现模型有潜在安全风险,则开发者不得将模型用于商业或公开用途,也不得将模型衍生品用于商业或公开用途。”

《法案》规定,开发者每年需向监管部门上交一份由首席技术官或更高职位官员签署的安全证明,延迟未交或做伪证将受到处罚,甚至可能入狱。

《法案》要求开发者对“危险事件”具备及时响应能力:要在获知事件发生72小时内总结上报给监管部门,同时在设计代码时要让模型具备迅速“全面关闭”能力,以便及时停止使用。

同时,《法案》对举报人设有保护条款,鼓励举报者上报模型危害行为和风险,确保员工可以在不受报复的情况下报告企业的不合规情况。

据悉,如果法案获得通过,州长 Gavin Newsom的一个签名就可以将其纳入加州法律。

从表面来看,《法案》拟定出发点是好的,但在科学家们看来,这些繁琐的规定或将成为AI创新发展的“抑制剂”。

李飞飞:AI生态系统会因此变得更糟

《法案》在正式通过前,留给科学家们抗议的时间已经不多了。

为此,李飞飞亲自撰文陈述《法案》不合理性,试图再为合理立法争取一些时间。

李飞飞在文中表示,“善意的人工智能法案将损害美国生态系统。 人工智能政策制定必须以鼓励创新为前提,设置适当的限制。 不这样做的政策在最好的情况下无法实现其目标,在最坏的情况下会导致意想不到的严重后果。”

她提到,“每个AI开发者(尤其是初出茅庐的开发者和企业家)都无法预知模型的所有用途,法案对开发者过度追责将迫使开发者退缩并采取防御措施——这正是需要避免的。”

在李飞飞看来, 该法案对开源社区将形成毁灭性影响

“法案提到的‘全面关闭’是一种可以随时关闭程序的机制。如果程序员们都在担心他们下载或正在构建的程序可能会被随时删除,他们将更加不愿意编写代码和写作。‘全面关闭’将摧毁开源社区——它是无数创新的源泉。其影响不限于人工智能领域,而是在从 GPS 到 MRI 到互联网本身的各个领域。”

她提到,“法案将削弱公共部门和学术人工智能研究。开源开发对于私营部门很重要,但对于学术界也至关重要。如果没有协作和对模型数据的访问,学术界就无法进步。如果我们的机构无法获得适当的模型和数据,我们将如何培养下一代人工智能领导者?”

“终止开关甚至会进一步削弱学生和研究人员的努力,与大型科技公司相比,他们在数据和计算方面已经处于劣势。在我们应该加倍加大公共部门人工智能投资时,SB-1047 将为学术人工智能敲响丧钟。”

李飞飞强调,该法案并未解决人工智能进步的潜在危害,包括偏见和深度伪造等等。相反,SB-1047 设置了一个任意阈值——调节使用一定计算能力或花费 1 亿美元训练的模型。

在她看来,这项措施远非提供保障,只会限制包括学术界在内的跨部门创新。如果学术界受到 SB-1047 的监管,我们的人工智能生态系统将会因此而变得更糟。”

她澄清自己并不反对人工智能治理,但认为该法案目前过于武断。同时,加州是全美最强大的人工智能生态所在地,立法将具备代表性并会影响到其他地方,需要谨慎思考。

“立法对于人工智能的安全有效发展至关重要。但人工智能政策必须促进开源开发,提出统一且合理的规则,并建立消费者信心。”李飞飞说。

AI大佬联合发起公开信,怒斥法案“愚蠢”

除李飞飞外,加州院校和AI相关研究机构也在行动,联合起草公开信试图阻止法案通过。

除了与李飞飞上述提到的类似观点外,公开信还强调了该法案对教育的损害。

“SB-1047未来可能会阻碍对人工智能感兴趣的学生进一步学习相关知识,甚至可能会阻止新人才进入计算机科学等关键领域。此外,随着科技行业从大公司向初创公司的转变,额外的监管障碍可能会通过支持更大、更好的企业来削弱新兴创新者。这种转变可能会缩窄学生的职业道路。”

截至目前,数十名来自加州大学7个校区、哈佛大学、Samaya.ai等院校及研究机构的学者们已完成签名,共同吹响抗争号角。

除了公开信,不少大佬选择在社交媒体上发声,给这把火又添了把柴。

吴恩达发文致谢Meta团队对开源做出的贡献,并表示“希望SB-1047这样愚蠢的法规不会阻止此类创新。”

他指出,“这项拟议的法律犯了一个根本性的错误:应监管人工智能应用而不是技术。”

“我欢迎取缔未经同意深度伪造的内容,用水印等特别设置识别生成内容,并为安全研究方面投入更多资金。不幸的是,拟议的法案走的是一条不太有益、更有害的道路。”

吴恩达认为,模糊不清的法案要求将会提高企业合规成本,即便是还没什么收入的小公司也需要聘请团队帮助审核,以帮助确保他们遵守这些模糊且不合理的要求。

图灵奖得主杨立昆随即为吴恩达的论证点赞,并再次强调该法案将扼杀开源人工智能,并阻止人工智能创新。

未来学者和思想家Daniel Jeffries尖锐指出,“SB-1047不是人工智能安全法案,而是特洛伊木马(病毒)。”

“它(法案)的设计看起来谨慎,但其真正目的是为一小群边缘反人工智能分子提供致命开关,同时给加州的科技行业带来破坏。”Daniel Jeffries说。


OpenAI CTO、吴恩达夫人……AI 领域值得关注的「她」力量,个个都是女强人

在AI的璀璨星空,她力量悄然闪耀

国际妇女节之际,让我们聚焦那些在AI领域熠熠生辉的女性身影,她们以坚韧与智慧,定义着行业的未来。 首先,Mira Murati,OpenAI的首席技术官,她的达特茅斯背景和对ChatGPT的卓越领导力,彰显了女性在技术革新中的关键角色。 作为前总裁的Carol Reiley,她的机器人领域专长让女性专家的地位更加稳固。 而斯坦福大学的李飞飞教授,作为ImageNet的创始人,她的成就不仅限于学术界,更在推动科技教育的性别平等上留下了深刻的印记。

Dawn Song,Oasis Labs的首席执行官,凭借对安全与隐私技术的深入研究,她是AI界的一股不可忽视的力量。 复旦大学的Xuanjing Huang教授,作为自然语言处理领域的领军人物,她的贡献推动着AI语言技术的进步。 商汤科技的Jianping Shi,自动驾驶系统的专家,她的专业素养为行业的智能化转型注入了新动力。

2022年,女性在科技领域更是光彩夺目。 Jennifer Chayes,UC Berkeley的教授和微软的前CVP,荣登福布斯中国科技女性50强,她的影响力超越了学术,延伸至企业界。 NVIDIA自动驾驶架构师Siddha Ganju凭借30岁以下的卓越成就,成为福布斯的焦点,她的NASA经历为AI的创新之路增添了传奇色彩。 的联合创始人Rachel Thomas,作为AI领域的重要人物,她的贡献被广泛认可。

Mariya Yao,Metamaven的CTO/COO,不仅设计出引领潮流的人工智能产品,还通过主编企业AI出版物,推动教育公平,展现女性在科技普及和教育改革中的力量。 李飞飞的呼吁尤为响亮:技术时代呼唤更多女性工程师,她们的加入无疑将为AI和科技界注入源源不断的活力和创新。

在这个属于她们的日子里,HyperAI向所有女性工程师致以最诚挚的敬意,祝愿你们在AI的征途上,绽放出更加璀璨的光芒。 让我们期待更多的她,用智慧和坚韧,书写AI领域的辉煌篇章。 ——完——

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://m.srwj168.com.cn/caijing/9808.html
习言道 这两个宝贝 习近平看得很重 文脉华章
舒服 比吃素香 比吃肉清爽 贴秋膘 最馋这道砂锅菜 立秋后