AI可能会损害它们的业务 谷歌等科技巨头承认

7月4日消息,如今, 人工智能 似乎已经无处不在,但有些科技巨头终于承认了它可能带来的风险。

自于2022年11月发布聊天机器人ChatGPT以来,人工智能迅速成为科技行业热议的焦点。在那之后的几个月里, 谷歌 、、 微软 等科技巨头纷纷加大了在人工智能领域的投资力度。

这些大型科技公司一直在公开宣布他们加入人工智能竞赛的计划,但最近,他们也开始正视并低调应对该技术可能对各自业务造成的不利影响。

在2023年年度财报中,谷歌母公司Alphabet表示,其人工智能产品和服务“引发了道德、技术、法律、监管和其他方面的挑战,可能会对我们的品牌形象和市场需求产生负面影响”。

同样,Meta、微软和甲骨文也在提交给美国证券交易委员会(SEC)的文件中,在“风险因素”部分阐述了他们对人工智能的担忧。

微软表示,其生成式人工智能功能“可能容易受到来自老练对手的意外安全威胁”。

Meta在2023年年度财报中称:“在开发和部署人工智能功能的过程中,我们面临着重大风险。这些风险包括但不限于人工智能的应用未必能增强我们的产品或服务,或对我们的业务产生正面影响,如提升效率或盈利能力。”

Meta接着列举了一些具体因素,强调生成式人工智能可能带来的负面影响,如错误信息的广泛传播(尤其在大选等敏感时期)、有害内容的滋生、侵犯知识产权以及数据隐私泄露等,这些都可能对用户造成不利影响,并使公司面临法律诉讼的风险。

与此同时,公众对于人工智能技术的担忧也日益加剧,主要聚焦于其可能导致的工作岗位流失、基于个人数据的大语言模型训练引发的隐私顾虑,以及错误信息快速传播对社会的潜在危害。

6月4日,多位来自OpenAI的在职和离职员工签署了一封致科技公司的信,要求它们采取更多措施来减轻人工智能的风险,并保护对其安全性提出质疑的员工。

信中写道,这些威胁包括“加剧现有的不平等、操纵和扩散错误信息,以及失去对可能导致人类灭绝的自主人工智能系统的控制”。

截至本文发布,Meta、谷歌和微软都还没有回应置评请求。(小小)


人工智能带来哪些隐患?

人工智能带来的弊端有以下这些:

1巨大的经济损失。

在最快的自动化采用场景下,到2030年,全球多达3.75亿工人将不得不转换职业类别,而大约7500万工人将受到某些专业能力的影响。 随着对高科技技能工作需求的增长,低技能工人可能会被抛在后面,从而导致严重的经济失衡。

2人工智能的传播可能引发具有挑战性的道德问题。

其中一些可能与该技术在公共监视和高级军事应用到社交媒体等领域的使用和潜在滥用有关。 用于训练它们的算法和数据可能会引入新的偏差,或者使现有类型永久化和制度化。 其他关键问题包括个人信息的使用,隐私,网络安全以及用于操纵某些选举结果或进行大规模全球欺诈的“伪造品”。

3人工智能会让一部分社会成员感到心理上的威胁。

人们普遍认为,只有人类才具有感知精神,而且把这作为与机器的区别。如果未来,这些人开始认为机器也能够思维和创造,那么他们可能会感到失望和恐慌,甚至感到威胁

人工智能(AI)是人造的,为何要担心它威胁人类自身?

61年前,约翰·麦卡锡等好几个科学家在达特茅斯大会上,首次提出了人类意识和思维过程进行模拟的概念。 同时也给这个领域取了个令人深刻的名字,就是——人工智能,Artificial Intelligence,英文缩写为AI。

自会议之后,约翰·麦卡锡被誉为“人工智能之父”。 人工智能也作为新的领域在科技中大放异彩。 从我们用到的智能手机系统和兴起的3D打印,从“拓展现实”眼镜到全息投影,就连我们常用的手机美图秀秀APP,用到的美颜功能也是人工智能领域的应用。

人工智能作为一项新的科学技术,它的发展速度是人们无法想象到的。 普通群众可能还没适应新的技术,过了一阵可能它已经被淘汰了。 就拿我们熟悉的智能手机iphone来说,几乎几个月就更新了新的一代,换肾都换不过来。 手机中软件还没用多久,就用一款新的软件出来。 就拿语音软件来说,siri语音成为了大多数宅男娱乐的重要功能,成为人机交互的重要案例。 近几年,无人驾驶、虚拟现实等人工智能也纷纷走进市场。

2014年,世界上第一个能够表现人类情感的机械人——Pepper出现在人们的视野中。 Pepper在新闻发布会上,通过分析人类的面部表情和身体语言,完成了预测消费者爱好的功能。 之后,世界上第一台云识别冰箱CHIQ出现,能够根据食物的品种来向你推荐菜谱。

人工智能跟我们的生活有密切的联系,是大脑的进一步延伸。 但是,我们在感叹它的方便和魅力的同时,我们也面临着它给我们带来的思考。

人工智能已经渗入到很多领域:

(1)2011年,沃森被应用到医疗领域,它收集了42种肿瘤科学研究的医学期刊,60多万份医疗记录,150万份患者的信息以及200多万份文字资料。 沃森能够在不到一分种内向医生提出患者可能需要的治疗计划出来。

(2)2014年微软code大会上,Skype translator尝试识别各国地区的语言和表达方式,竟然能进行两种语言的无障碍交流。

(3)2015年tecent,dreamwriter机械人写了腾讯公司八月的CPI新闻,从收集信息到成功提交,仅仅消耗了几十秒的时间。

(4)2016年,围棋大师被阿尔法狗打败。 同年,柯洁被大师(Master)横扫。

科技牛人埃隆·马思克曾说过:“我们需要万分警惕人工智能,它们比核武器更加危险!“借着人工智能,我们将打开潘多拉魔盒,五角星和圣水可能也一定有用。 霍金预言:”人工智能是人类史上最大的事件,同时也可能是最后的事件。 “

日本软银总裁孙正义,他预言明年人工智能的“奇点”就会到来,穿上安装芯片的鞋子,脚可以比脑袋更聪明。 谷歌公司工程总监雷-库茨韦尔(Ray Kurzweil)预测称:”机器人将比人类更加聪明。 “牛津大学研究人员还列出了20种最可能被人工智能替换掉的工作,你永远也想不到下一秒谁的工作会消失。

首先不管他们的预测准不准,人工智能已经渗入到人类的各种领域当中。 其实,我们不需要担心自己会被取代掉,因为科技的发展始终是为了人类更好的生存而存在。 旧的东西被抛弃,新的东西也会呈现出来。

无人驾驶原则和公共场所人脸识别,拷问人工智能的底线

技术必须遵从人民的权利,欧盟发布人工智能白皮书

戴姆勒:人类仍将是技术的创造者

1814年,英国人乔治·斯蒂芬森发明了人类历史上第一台蒸汽机车,被称为“旅行者号”,它在前进时不断从烟囱里冒出火来,因此被称为“火车”。

1825年英国建成第一条铁路,当年9月,“旅行者号”机车拖着三十多节小车厢正式试车,以每小时24千米的速度跑完了40千米的路程。

当时,在技术怀疑论者看来,火车头是“邪恶之物”,他们预测人类会因为这项“地狱般的”发明吞下恶果。 例如担心火车上冒的烟会毒害乘客,火车气流会引发肺炎,火车快速的节奏会让大脑产生错乱等等。

怀疑论者为何又改变了看法了呢?

戴姆勒董事会成员、负责诚信经营与法律事务白韵格(RenataJungoBrungger)女士提出了两个方面的原因:一是因为随着时间推移,人们完全适应了这些科技的存在,甚至开始明白了新科技的价值。 还有就是,迟早,制约这些新科技的规则会制定出来。

德国时间2019年9月10日上午,她在当天开幕的法兰克福车展上关于戴姆勒人工智能指导原则的演讲时认为,今天数字化转型也正经历着同样的变革,人工智能的兴起也同样如此,它们带来了相似的挑战。

咨询公司普华永道(PwC)预计,到2030年,人工智能将带动中国、北美和欧洲GDP分别增长约26%、14%和10%。 这一技术不仅有助于克服气候行动带来的诸多挑战,而且能进一步优化在交通运输、医药和农业等多个领域所取得的成效。

汽车商业评论注意到,虽然技术专家、商界领袖和政府官员都认同人工智能是世界上最具变革性的技术之一,但他们普遍注意到,这也给个人隐私和日常生活也带来了新的风险。

白韵格说:“人工智能已经全面融入到了我们的日常生活当中,在自动驾驶领域就是很好的例证。 然而有史以来,每项发明都充满魅力,同时也让人心生敬畏。 ”

她表示,对于大多数人工智能应用来说,大量的数据必不可少,包括个人数据。 然而很多客户并不希望自己的个人信息被泄露。 他们担心数据保护并不完善、数据被篡改,或者因此造成失控。 有些人甚至担心如此发达的人工智能系统有一天会统治世界。

如何在抓住人工智能所带来的机遇的同时,化解随之而来的危机、恐惧和挑战?

为此,戴姆勒确定了四项原则:合理利用;可解释;保护隐私;安全且可靠。白韵格强调:“人类仍将是技术的创造者!”

博世:人类必须保留对人工智能所做决策的最终控制权

当地时间2020年2月19日,德国工业巨头博世也提出了类似的《AI道德准则》,即人工智能必须安全、可靠且可解释,人类应始终保留对人工智能的控制权。

博世是在当天柏林召开的第七届博世互联世界大会(BCW)开幕式上发布这一指导方针的。

“人工智能是服务于人类的工具,任何可能对人造成影响的人工智能决策都需要人类的监管。 ”博世首席执行官沃尔克马尔·邓纳尔(VolkmarDenner)如此表示。

此前,博世决定以《世界人权宣言》体现的价值观为基础,积极应对人工智能技术使用过程中出现的道德伦理问题。

博世集团首席数字官兼首席技术官MichaelBolle博士说:“只有当人们不再将人工智能视为神秘的‘黑匣子’时,信任的种子才会萌芽。 而信任将是成就互联化世界不可或缺的要素。 ”

他表示,新发布的博世《AI道德准则》秉持“科技成就生活之美”的理念,将创新精神与社会责任相结合。

根据博世《AI道德准则》,人工智能必须在某种程度的人为介入或影响的条件下做出决策。 它包含了三种机制,它们遵守着一个共同的原则,即博世开发的人工智能产品中,人类必须保留对人工智能所做决策的最终控制权。

第一种机制为人工控制(human-in-command),适用于人工智能仅作为一种辅助工具出现的情境。 例如,在决策支持系统中,人工智能协助人们对物体或生物进行分类。

第二种机制为使用阶段的人为干预(human-in-the-loop),适用于人工智能系统可以进行自主决策,但人类能够随时干预其决策的情境。 比如驾驶辅助系统,驾驶员可以直接干预停车辅助系统的决策等。

第三种机制为设计阶段的人为干预(human-on-the-loop),适用于紧急制动系统等应用。 开发此类智能产品时,专家将定义参数作为人工智能决策的基础,而人类不参与决策,由人工智能进行。 但是,工程师可以随时追溯检查机器是否遵守所设定的参数进行决策,必要情况下可以修改参数。

博世计划在今后两年对近2万名员工进行人工智能培训。 《AI道德准则》也会作为培训内容的一部分。

据称,到2025年,每款博世产品都将带有人工智能功能,或者在开发和生产过程中运用人工智能技术。

普华永道的一份报告显示,自2018年以来,欧洲各种组织共发表了44份报告,对“人工智能伦理”提出了建议。

脸书:承诺加强应对网络有害信息

汽车商业评论注意到,无论是戴姆勒还是博世,它们对人工智能的关注更多的落脚点是人类对人工智能的控制权,但是来自硅谷的巨头,他们对人工智能的关注点,更多在于隐私方面。

人工智能如今出现在苹果的Siri和FaceID等产品中,也为谷歌的搜索引擎、自动驾驶汽车以及Facebook的广告业务提供动力。 2020年1月以来,Facebook、谷歌以及苹果高层纷纷造访布鲁塞尔,因为欧盟将对人工智能监管出台政策。

首先是谷歌母公司Alphabet首席执行官桑达尔·皮查伊(SundarPichai)来到比利时布鲁塞尔。 然后,苹果公司负责人工智能的高级副总裁约翰·詹纳安德里亚(JohnGiannandrea)也出现在这里。

2018年以来,欧盟通过了有关数字隐私的法律法规,并在反垄断问题上对谷歌和其他公司进行惩处,这也促使世界其他地方相继对科技行业巨头采取更严厉的行动。

欧盟委员会的新的人工智能政策也可能成为其他国家和地区竞相效仿的模板,诸如谷歌、脸书和苹果等这些在人工智能上押下重注的科技巨头非常担心。

皮查伊在造访布鲁塞尔期间发表演讲承认人们确实担心人工智能可能带来的负面影响,需要对人工智能进行适当的监管,但他认为“需要找到一个平衡点”,以确保规则不会扼杀创新。

德国时间2月17日,脸书(Facebook)首席执行官马克·扎克伯格(MarkZuckerberg)也加入前往布鲁塞尔的行列,与欧盟委员会执行副主席玛格丽特·韦斯塔格尔(MargretheVestager)等当地官员会面。 他希望通过承诺加强应对网络有害信息来换取欧盟降低针对域外企业的市场准入门槛。

多年来,美国立法者和监管机构基本上不干涉硅谷公司的发展,允许这些公司不受阻碍地发展,对社交网络上虚假信息的传播等问题几乎不加审查。

韦斯塔格尔将欧洲在科技监管方面更为强硬的立场比作其对农业的监管。 美国所允许使用的许多杀虫剂和化学药品在欧洲都是被禁用的。

她表示,欧洲的做法是,如果事情有风险,那么整个社会都希望对此进行监管,“对我们来说,最重要的是创建一个让人们觉得他们可以确信所发生事情的社会”。

韦斯塔格尔负责统筹协调关于欧洲人工智能政策的初稿。 2019年12月1日正式出任欧盟委员会主席的物理学家冯德莱恩(UrsulavonderLeyen)上任之初就给了韦斯塔格尔100天的最后期限,让她在截止日期之前公布一份关于人工智能的初步提案。

韦斯塔格尔表示自己并不担心人工智能在Spotify上推荐一首歌曲或在Netflix上推荐一部电影,她关注的是决定谁能获得贷款或诊断出什么疾病的人工智能算法。

她对面部识别技术的广泛应用格外担忧,并表示在这项技术“无处不在”之前可能需要有新的限制。 当时还曾经传出欧盟人工智能白皮书草案建议3至5年内禁止人脸识别技术应用于公共场所。

欧盟:技术必须遵从人民的权利

2月19日,也就是博世推出《AI道德准则》的当天,欧盟委员会主席冯德莱恩在布鲁塞尔发布了《人工智能白皮书》,它包括了有关企业如何使用人工智能这一史无前例的规定。

这份大约30页的白皮书由政策框架和未来监管框架要素两部分组成,概述了欧委会的AI战略:既要在经济上迅速发展以赢下科技竞争,又要在道德上符合欧洲大陆的价值标准。

欧盟委员会指出,人工智能发展迅猛,欧洲需要为此增加投资,同时也要应对一系列潜在风险。 冯德莱恩强调,技术必须遵从人民的权利。

白皮书提出要建立一个“可信赖的人工智能框架”,重点聚焦三大目标:研发以人为本的技术;打造公平且具有竞争力的经济;建设开放、民主和可持续的社会。

虽然未来3到5年人脸识别限制条款并未出现在这次正式公布的白皮书中,但白皮书还是在保护公民隐私和数据安全方面制定了一系列措施。

针对人脸识别,白皮书称,收集和使用生物数据用于远程识别目的对基本权利有特定风险,欧盟数据保护规则原则上禁止以识别特定自然人为目的处理生物数据,特殊条件除外。

白皮书表示:“为解决在公共场所以此目的使用人工智能可能引起的社会关切,避免在内部市场出现分裂,欧盟委员会将在欧洲展开广泛辩论,讨论可能正当的应用情况(如有)和共同保障措施。”

同时,人工智能企业必须通过相关部门的安全测试和资质审核才能进入欧盟市场。 其中,医疗设备、自动驾驶、社会保障和移动支付等“高风险”行业的人工智能企业均被列为重点审核和监管对象。

欧盟司法委员雷恩德斯指出:“如果自动驾驶汽车出现交通事故,谁将为此承担责任?我们必须对类似问题作出规定。”

未来三个月内,欧盟的这份人工智能白皮书将接受各界人士的公开咨询,再根据反馈结果进行相应修订。

2020年底,欧盟将制定出台《欧盟数字服务法》等具有法律约束力的数字规则,从而对规范市场准入、强化企业责任和保护基本权利等问题作出明确规定。

这些规定不仅适用于欧洲本地企业,也将对在欧盟运营的第三国数字企业产生重要影响。

白皮书:欧洲新数字战略的开始

2010?年以来,欧盟把实现智能增长作为其三大增长目标(智能型增长、可持续增长和包容性增长)之一。

2013年,宣布正式实施“人类大脑计划”和“石墨烯计划”两个“未来新兴技术旗舰计划”。 ?欧盟人类大脑计划的主要研究目标是实现对人类大脑的人工模拟,是世界上第一个脑科学大科学工程。

此项计划不仅致力于揭示人类大脑的活动机理和人类认知的本质,而且其理论成果可直接为人工智能发展提供最有力的支持。 汽车商业评论认为,这可能也是为什么戴姆勒和博世都更加强调人类对人工智能主导的重要原因。

围绕实现智能增长的目标,欧盟大力推进“数字议程”的实施,着力于构建“数字单一市场”,加速“工业4.0”进程。 2017年,欧盟正式宣布其覆盖全部成员国的数字单一市场步入正式建设阶段。

2018年,欧盟启动第3个未来新兴技术旗舰计划“量子技术”,积极发展量子网络通信和量子计算机等,在数据传输、分析、处理能力上为人工智能发展奠定基础。

从数字医疗到精准农业,从自动驾驶到智慧城市,人工智能技术应用领域广泛,经济潜力巨大,尽管如此,欧盟在人工智能研发和应用方面已经落后于美国和中国。

世界知识产权组织最新发布的统计报告表明,目前全球85%以上的人工智能相关技术专利来自中美两国企业。

最细发布的欧盟《人工智能白皮书》表示,欧洲需要大幅提高人工智能研究和创新领域的投资水平,目标是未来10年中,每年在欧盟吸引200亿欧元的AI技术研发和应用资金。

欧盟估算,欧盟人工智能等数字技术的现有经济规模为3000亿欧元,占欧盟国内生产总值的2.4%,5年之后这一数字将是目前的三倍。 人工智能等产业已经为欧盟创造了570万个就业岗位,5年后这一数字最少将会翻一番。

目前,博世在全球7个地点设立了人工智能中心。 作为巴登符腾堡州“CyberValley”研究联盟的创始成员之一,博世将投资1亿欧元用于建设人工智能园区,该园区的700名专家将很快能够与外部研究人员和初创公司并肩工作。

毫无疑问,这份白皮书代表了欧洲新数字战略的开始,同时对美国及中国科技企业提出了更高的要求。

因此,韦斯塔格表示,人工智能等数字战略的出台,为欧盟提供了成为世界先进技术领导者的第二次机会。

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://m.srwj168.com.cn/keji312/41248.html
Redmi 16GB内存 K70 芯片 小米 至尊版手机跑分
暂无