
頂尖醫學期刊《自然醫學》發布社論,嚴厲警告醫療AI應用缺乏實證,存在幻覺、誤診等嚴重缺陷,導致許多民眾過早採用。社論呼籲應建立明確評估框架,以防AI醫療技術在價值未明前被倉促導入,影響科學嚴謹性與病患安全。
頂尖醫學期刊《自然醫學》(Nature Medicine)日前發表一篇嚴厲的社論,警告人工智慧(AI)工具在醫療領域的應用,目前仍缺乏足夠證據證明其對病患、醫護人員或醫療系統能產生實質價值。社論中指出,業界對於AI臨床影響力的聲明日益普遍,但卻未明確定義所需具備的證據水準,導致科學不確定性及AI醫療技術的過早導入與應用。
目前,美國已有數百萬民眾尋求AI聊天機器人提供的醫療建議,甚至取代人類醫師。然而,研究人員持續發現大型語言模型(LLM)在分析病歷與提供健康建議時存在嚴重缺陷。其中,「AI幻覺」(hallucinations)仍是未解的重大問題,可能導致AI根據不存在的影像生成詳細臨床結果,甚至對虛假疾病信以為真。一項《美國醫學會雜誌:醫學版》(JAMA Medicine)近期發布的研究發現,當面對模糊症狀時,尖端AI模型在逾八成的時間內都未能做出正確診斷。
AI模型易受誤導 助長不實資訊傳播
除了診斷準確性問題,AI模型在面對不實資訊時的脆弱性也令人擔憂。哥特堡大學(University of Gothenburg)醫學研究員 Almira Osmanovic-Thunström 曾上傳兩篇內容明顯造假的論文至預印本伺服器,成功讓大型語言模型誤認為某種虛構的皮膚病是真實存在的。更甚者,其他同儕審查期刊還曾引用這些預印本文章(後續已撤回),凸顯了AI工具在訊息驗證上的漏洞,恐助長醫療領域中過度概括或虛假資料的氾濫。
《自然醫學》社論呼籲,各界迫切需要建立一套框架,明確界定AI醫療技術應如何被評估、採用何種指標以及對應何種基準。該期刊強調,若缺乏聲明與證據之間的明確連結,醫療AI將可能在其實際價值尚未被完全理解之前,便被過度且倉促地採用,進而犧牲科學嚴謹性,對醫療品質構成潛在風險。
