研究人員指出醫院使用的AI轉錄工具會誤生成未曾說過的內容

新聞報導於11個月前

研究發現,OpenAI的AI轉錄工具Whisper存在重大缺陷,常常會生成未曾說過的文字,這些被稱為幻覺的內容在醫療環境中特別令人擔憂。儘管該工具被推廣為具有與人類相似的準確性,但多位專家指出,在對話轉錄中,Whisper竟然虛構了大量的段落,包括有關種族和暴力的評論以及虛構的醫療資訊。儘管OpenAI已警告不應在高風險領域使用該工具,許多醫院仍然在患者與醫生的諮詢中使用Whisper進行轉錄,這可能會對患者安全造成嚴重後果。因此,專家們呼籲政府考慮對AI技術進行監管,以解決這一問題。

小見聞來源: YAHOO

查看詳情

您可能也對這些小見聞有興趣

返回所有小見聞