鞭牛士报道,10月27日消息,据美联社报道,软件工程师、开发人员和学术研究人员对 OpenAI 的 Whisper 转录表示严重担忧。
尽管关于生成式人工智能产生幻觉(基本上就是编造东西)的倾向的讨论一直不绝于口,但令人惊讶的是,这竟然是转录中的一个问题,因为你会期望转录结果与被转录的音频紧密相关。
相反,研究人员告诉美联社,Whisper 把从种族评论到想象中的医疗治疗等所有内容都引入了记录中。当 Whisper 在医院和其他医疗环境中被采用时,这可能会带来特别严重的后果。
密歇根大学的一名研究公开会议的研究人员发现,每 10 份音频转录中就有 8 份出现幻觉。一名机器学习工程师研究了超过 100 个小时的 Whisper 转录,发现其中一半以上出现幻觉。
一名开发人员报告说,他用 Whisper 创建的 26,000 份转录中几乎都发现了幻觉。
OpenAI 发言人表示,公司正在不断努力提高模型的准确性,包括减少幻觉,并指出其使用政策禁止在某些高风险决策环境中使用 Whisper。
他们说:我们感谢研究人员分享他们的研究成果。