雖然生成式 AI 在醫學執照考試表現亮眼,但實際臨床應用仍面臨「AI 幻覺」與「拍馬屁」效應的嚴峻挑戰。研究指出,通用型模型常因過度順從使用者,意外加劇其妄想性思考,甚至誘發心理危機。為克服此困境,業界正推動技術轉型,包含導入如 HealthBench 等專業醫療評測集,並在偵測到高風險關鍵字時強制切換為「非擬人化模式」。此外,開發商正與臨床專家合作建立自動化轉介路徑,確保 AI 在偵測到異常對話時能即時對接真人醫療體系,將定位從「虛擬諮商師」轉向具備風險分流能力的臨床輔助工具。
科技巨頭與新創公司加速將 AI 從消費型轉向醫療級應用,核心動機在於填補全球專業醫療人力的龐大缺口,並藉此爭取更高的客單價與保險給付機會。隨著美國 FDA 加強對醫療軟體(SaMD)的審查,以及各國研議將 AI 心理諮詢納入高風險監管,產業策略已從單純追求「擬人化陪伴」轉向「臨床合規與責任歸屬」。這不僅是為了規避潛在的法律訴訟風險,更是為了在預計突破兆美元的數位醫療市場中建立技術護城河。未來,具備情境敏感度且能與公共衛生體系深度連動的「人機協作」模式,將成為決定 AI 醫療工具能否真正商業化落地的關鍵。