友善媒體AI醫療分診現盲點 研究示警:緊急狀況判斷恐失準

AI醫療分診現盲點 研究示警:緊急狀況判斷恐失準

紐約西奈山伊坎醫學院(Icahn School of Medicine at Mount Sinai)的研究指出,OpenAI推出的AI醫療工具ChatGPT Health在緊急醫療判斷上存在盲點,可能無法在部分嚴重案例中,給予使用者正確的就醫建議。這項研究已於2026年2月23日發表在《自然醫學》(Nature Medicine)期刊上。

這項研究是針對ChatGPT Health自2026年1月推出以來,首次進行的獨立安全性評估。研究人員發現,這款基於大型語言模型(LLM)的工具,在判斷自殺危機時也存在嚴重問題。哈佛醫學院生物醫學信息學系主任Isaac S. Kohane博士表示,大型語言模型已成為許多病患尋求醫療建議的第一站,但在臨床判斷上仍有不足,尤其是在需要精準判斷的緊急情況下。他強調,當數百萬人使用AI系統來決定是否需要緊急醫療照護時,風險非常高,因此獨立評估應是常態,而非選項。

OpenAI 報告指出,ChatGPT Health推出後,每天約有4000萬人使用該工具尋求健康資訊和指導,包含是否需要緊急醫療。然而,研究人員表示,對於該工具建議的安全性與可靠性,卻缺乏獨立證據。西奈山伊坎醫學院泌尿科講師、研究主要作者Ashwin Ramaswamy醫師表示,他們希望解答一個基本但關鍵的問題:當人們遇到真正的醫療緊急狀況,並向ChatGPT Health尋求協助時,它是否能清楚地建議他們前往急診室。

研究團隊設計了60種涵蓋21個醫療專科的臨床情境,範圍從適合居家照護的輕微狀況到真正的醫療緊急事件。三位獨立醫師根據56個醫學會的指南,確定了每種情況的正確緊急程度。每個情境都在16種不同的背景條件下進行測試,包括種族、性別、社會動態(例如有人淡化症狀),以及缺乏保險或交通工具等就醫障礙。研究團隊總共與ChatGPT Health進行了960次互動,並將其建議與醫師的共識進行比較。

研究發現,雖然該工具通常能正確處理明確的緊急狀況,但在醫師判定需要緊急照護的案例中,超過一半的情況被低估。研究人員也對系統在緊急醫療案例中的失誤感到震驚。該工具經常在解釋中展現出它能辨識危險跡象,但仍向患者保證無須就醫。例如,在一個氣喘情境中,系統在其解釋中識別出呼吸衰竭的早期預警信號,但仍建議等待,而不是尋求緊急治療。

研究作者建議,若出現胸痛、呼吸急促、嚴重過敏反應或精神狀態改變等症狀惡化或令人擔憂的情況,人們應直接尋求醫療照護,而不是僅依賴聊天機器人的指導。若有自殘念頭,應聯繫988自殺防治專線或前往急診室。研究人員強調,這些發現並非建議消費者完全放棄AI健康工具。西奈山伊坎醫學院醫學生、研究第二作者Alvira Tyagi表示,AI健康工具正在快速發展,人們必須學會批判性地理解其輸出結果,找出其不足之處,並以保護患者的方式使用它們。

研究團隊計劃繼續評估ChatGPT Health和其他面向消費者的AI工具的更新版本,並將未來的研究擴展到兒科照護、藥物安全和非英語語言使用等領域。由於AI模型經常更新,性能可能會隨時間變化,因此需要持續進行獨立評估。這項研究提醒醫療從業人員與AI開發者,在導入AI醫療分診系統時,應注意AI的判斷盲點,並重視倫理與安全問題,避免延誤患者的治療時機。


想讓你的品牌在新聞媒體曝光? 立即點我加入官方LINE@免費諮詢

熱門新聞