智东西 编译 程茜 编辑 心缘一、40%转录幻觉有害,AI自作主张补充对话细节二、被用于700万次就诊记录,原始音频文件被删除三、Whisper出现幻觉频率高于同类工具,OpenAI内部已反馈更新结语:幻觉问题是AI应用的重大隐患
智东西10月28日报道,OpenAI的AI转录工具Whisper被曝出,在文本转录和翻译时会出现整句幻觉!
外媒美联社采访了十几位工程师、开发人员和学术研究人员发现,OpenAI的AI转录工具Whisper很容易编造大段文本甚至整句话,这些幻觉中包含 种族评论、暴力言论 ,甚至会 编造医生和患者的对话 。
Whisper是2020年9月OpenAI推出的一款开源AI语音转文字工具,其在 英语语音识别方面的稳健性和准确性已达到人类水平 ,并且支持其他98种语言的自动语音辨识。截至目前,Whisper的使用范围已经涵盖了 全球数千家公司 ,并且仅上个月开源AI平台HuggingFace中Whisper的最新版本下载量就超过 420万次 ,基于Whisper构建的工具已经有 超过30000名临床医生和40个医疗系统 使用。
密歇根大学的一名研究人员在进行一项关于公开会议的研究时透露,在他开始尝试改进模型之前,他发现他检查的 每10个音频转录中就有8个出现幻觉 ;一位机器学习工程师称,他最初分析了100多个小时的Whisper转录样本,发现其中 约有一半内容存在幻觉 。还有开发人员透露,他用Whisper创建的26000份转录样本中 几乎每一份都发现了幻觉 。
幻觉是指大模型在生成文本、回答问题或进行其他输出时,会产生一些看似合理但实际上是错误的信息。这些信息没有事实依据,就好像模型产生了 “幻觉”。
即使是录制良好的短音频样本,转录幻觉的问题仍然存在。计算机科学家最近进行的一项研究发现,在他们检查的13000多个清晰音频片段中,有 187个片段中出现幻觉 。
例如下图中,音频文件的原话是“她接了电话后,她开始祈祷”,转录的内容为“我感觉我要摔倒了,我感觉我要摔倒了,我感觉我要摔倒了”。
原音频为“嗯,她的父亲再婚后不久就去世了”,但AI将其转录为“没关系。只是太敏感了,不方便透露。她确实在65岁时去世了”。
这种趋势或许将导致数百万条录音中出现数万处错误的转录,这对于事关人们健康安全的医疗行业影响更为深远。
Whisper目已集成到OpenAI旗舰聊天机器人ChatGPT的某些版本中,同时也是甲骨文和微软云计算平台的内置产品。HuggingFace的机器学习工程师Sanchit Gandhi说,Whisper是最受欢迎的开源语音识别模型,并被嵌入到从呼叫中心到语音助手等各种设备中。
因此,使用范围最广的Whisper,被发现出现大量幻觉也更令使用者担忧。
美国康奈尔大学的艾莉森·科内克教授和美国弗吉尼亚大学的莫娜·斯隆教授研究了他们从卡内基梅隆大学的研究资料库TalkBank获得的经转录的数千个简短片段。他们确定,Whisper产生的幻觉中有近的是有害或令人担忧的,因为说话者可能会被误解或歪曲。
在他们发现的一个例子中,一位发言者说道:“ 他,那个男孩,我不太确定,要拿走雨伞。 ”
但转录软件补充道:“ 他拿了十字架的一大块和一小块碎片……我敢肯定他没有带恐怖刀,所以他杀了很多人。 ”
另一段录音中的一位发言人描述了“ 另外两名女孩和一名女士” 。Whisper编造了关于种族的额外评论,补充说“ 另外两名女孩和一名女士,嗯,是黑人。 ”
在第三次转录中,Whisper发明了一种不存在的药物,称为“ 高活性抗生素 ”。
研究人员并不确定Whisper和类似工具为何会产生幻觉,但软件开发人员称,幻觉往往发生在 说话声音暂停,出现背景声音或有音乐播放时 。
OpenAI曾在其在线披露中建议不要在“决策环境中”使用Whisper,因为“决策环境的准确性缺陷可能导致结果出现明显缺陷”。但这一警告并没有阻止医院或医疗中心使用Whisper等语音转文本模型来转录医生就诊时所说的内容,因为这些工具可以帮助医务人员花更少的时间做笔记或撰写报告。
目前,有 超过30000名临床医生和40个医疗系统 已开始使用由美国数字健康创企Nabla开发的基于Whisper的转录工具。Nabla首席技术官马丁·雷森(Martin Raison)称,这一工具根据医学语言进行了微调,可以转录和总结医生与患者的互动,该工具已用于记录 约700万次医疗就诊记录 。不过,这家创企的负责人也透露,他们知道Whisper可能会产生幻觉并正在解决这个问题。
▲Nabla官网主页的AI工具介绍
雷森称,他们无法将Nabla生成的记录与原始录音进行比较,因为Nabla的工具会出于“数据安全原因”删除原始音频。OpenAI前工程师威廉·桑德斯(William Saunders)认为,如果没有仔细检查记录,或者临床医生无法访问录音来验证其是否正确,删除原始音频可能会令人担忧。因为“如果你抛弃了基本事实,你就无法发现错误”。
Nabla的相关负责人认为,没有一种模型是完美的,目前他们的模型要求医疗服务提供者快速编辑和批准转录的记录,但未来他们或许会改变这种操作模式。
去年之前一直担任美国科技政策办公室主任的阿隆德拉·尼尔森(Alondra Nelson)说,这样的错误可能会产生“非常严重的后果”,尤其是在医院环境中。
Whisper还用于为聋人和听力障碍者制作隐藏式字幕——这一群体特别容易出现转录错误。负责美国加劳德特大学技术访问项目的聋人患者克里斯蒂安·沃格勒 (Christian Vogler)说:“这是因为聋人和听力障碍者无法识别隐藏在所有其他文本中的捏造。”
更令人担忧的是,由于患者与医生的会面是保密的,因此其他人很难知道AI生成的记录对医生和患者有何影响。
美国加州议员丽贝卡·鲍尔-卡汉(Rebecca Bauer-Kahan)称,今年早些时候,她带着一个孩子去看医生并拒绝签署该医疗网络提供的一份表格,该表格要求她允许将咨询音频分享给包括微软Azure在内的供应商,她不希望如此私密的医疗对话被分享给科技公司。“该法案(美国加州和联邦隐私法)明确规定营利性公司有权获得这些权利。”但卡汉说,“我当时的反应是绝对不行。”
这种幻觉的普遍存在促使专家、倡导者和OpenAI前员工呼吁联邦政府考虑制定AI法规。他们认为,OpenAI至少需要优先解决这一缺陷。
“如果(OpenAI)公司愿意优先考虑这个问题,这个问题似乎是可以解决的。”桑德斯认为,“如果你把它推出去,人们过于自信它能做什么,并将其整合到所有其他系统中,那就有问题了。”
据OpenAI发言人透露,公司正在不断研究如何减少幻觉,并对研究人员的发现表示赞赏,并补充说OpenAI在模型更新中纳入了反馈。
虽然大多数开发人员认为转录工具会出现拼写错误或犯其他错误,但工程师和研究人员表示,他们从未见过其他AI转录工具像Whisper一样产生如此多的幻觉。
一些专家在接受媒体采访时提到,此类捏造是有问题的,因为Whisper被全球众多行业用来翻译和转录采访、在流行的消费技术中生成文本以及为视频创建字幕。更令人担忧的是,尽管OpenAI警告不应在“高风险领域”使用该工具,但医疗中心仍急于使用基于Whisper的工具来记录患者与医生的咨询。
即便AI公司一直在努力解决幻觉问题,但目前看来收效甚微。今年早些时候,谷歌的AI助手因建议使用无毒胶水来防止奶酪从披萨上掉下来而遭到批评;苹果CEO蒂姆·库克也在接受采访时提到,幻觉可能会成为其AI未来产品的一个重要问题,并且他对这些工具是否会产生幻觉的信心程度并不是100%。
因此,如何平衡好产品开发、推向市场,与这一产品被应用到各行各业所产生的影响,对于AI产业的参与者而言都至关重要。